staging: b3dfg: clean up MODULE_PARM_DESC newline
[linux-2.6] / drivers / staging / b3dfg / b3dfg.c
1  /*
2  * Brontes PCI frame grabber driver
3  *
4  * Copyright (C) 2008 3M Company
5  * Contact: Justin Bronder <jsbronder@brontes3d.com>
6  * Original Authors: Daniel Drake <ddrake@brontes3d.com>
7  *                   Duane Griffin <duaneg@dghda.com>
8  *
9  * This program is free software; you can redistribute it and/or modify
10  * it under the terms of the GNU General Public License as published by
11  * the Free Software Foundation; either version 2 of the License, or
12  * (at your option) any later version.
13  *
14  * This program is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17  * GNU General Public License for more details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
22  */
23
24 #include <linux/device.h>
25 #include <linux/fs.h>
26 #include <linux/interrupt.h>
27 #include <linux/spinlock.h>
28 #include <linux/ioctl.h>
29 #include <linux/kernel.h>
30 #include <linux/module.h>
31 #include <linux/pci.h>
32 #include <linux/types.h>
33 #include <linux/cdev.h>
34 #include <linux/list.h>
35 #include <linux/poll.h>
36 #include <linux/wait.h>
37 #include <linux/mm.h>
38 #include <linux/uaccess.h>
39
40 static unsigned int b3dfg_nbuf = 2;
41
42 module_param_named(buffer_count, b3dfg_nbuf, uint, 0444);
43
44 MODULE_PARM_DESC(buffer_count, "Number of buffers (min 2, default 2)");
45
46 MODULE_AUTHOR("Daniel Drake <ddrake@brontes3d.com>");
47 MODULE_DESCRIPTION("Brontes frame grabber driver");
48 MODULE_LICENSE("GPL");
49
50 #define DRIVER_NAME "b3dfg"
51 #define B3DFG_MAX_DEVS 4
52 #define B3DFG_FRAMES_PER_BUFFER 3
53
54 #define B3DFG_BAR_REGS  0
55 #define B3DFG_REGS_LENGTH 0x10000
56
57 #define B3DFG_IOC_MAGIC         0xb3 /* dfg :-) */
58 #define B3DFG_IOCGFRMSZ         _IOR(B3DFG_IOC_MAGIC, 1, int)
59 #define B3DFG_IOCTNUMBUFS       _IO(B3DFG_IOC_MAGIC, 2)
60 #define B3DFG_IOCTTRANS         _IO(B3DFG_IOC_MAGIC, 3)
61 #define B3DFG_IOCTQUEUEBUF      _IO(B3DFG_IOC_MAGIC, 4)
62 #define B3DFG_IOCTPOLLBUF       _IOWR(B3DFG_IOC_MAGIC, 5, struct b3dfg_poll)
63 #define B3DFG_IOCTWAITBUF       _IOWR(B3DFG_IOC_MAGIC, 6, struct b3dfg_wait)
64 #define B3DFG_IOCGWANDSTAT      _IOR(B3DFG_IOC_MAGIC, 7, int)
65
66 enum {
67         /* number of 4kb pages per frame */
68         B3D_REG_FRM_SIZE = 0x0,
69
70         /* bit 0: set to enable interrupts
71          * bit 1: set to enable cable status change interrupts */
72         B3D_REG_HW_CTRL = 0x4,
73
74         /* bit 0-1 - 1-based ID of next pending frame transfer (0 = none)
75          * bit 2 indicates the previous DMA transfer has completed
76          * bit 3 indicates wand cable status change
77          * bit 8:15 - counter of number of discarded triplets */
78         B3D_REG_DMA_STS = 0x8,
79
80         /* bit 0: wand status (1 = present, 0 = disconnected) */
81         B3D_REG_WAND_STS = 0xc,
82
83         /* bus address for DMA transfers. lower 2 bits must be zero because DMA
84          * works with 32 bit word size. */
85         B3D_REG_EC220_DMA_ADDR = 0x8000,
86
87         /* bit 20:0 - number of 32 bit words to be transferred
88          * bit 21:31 - reserved */
89         B3D_REG_EC220_TRF_SIZE = 0x8004,
90
91         /* bit 0 - error bit
92          * bit 1 - interrupt bit (set to generate interrupt at end of transfer)
93          * bit 2 - start bit (set to start transfer)
94          * bit 3 - direction (0 = DMA_TO_DEVICE, 1 = DMA_FROM_DEVICE
95          * bit 4:31 - reserved */
96         B3D_REG_EC220_DMA_STS = 0x8008,
97 };
98
99 enum b3dfg_buffer_state {
100         B3DFG_BUFFER_POLLED = 0,
101         B3DFG_BUFFER_PENDING,
102         B3DFG_BUFFER_POPULATED,
103 };
104
105 struct b3dfg_buffer {
106         unsigned char *frame[B3DFG_FRAMES_PER_BUFFER];
107         struct list_head list;
108         u8 state;
109 };
110
111 struct b3dfg_dev {
112
113         /* no protection needed: all finalized at initialization time */
114         struct pci_dev *pdev;
115         struct cdev chardev;
116         struct device *dev;
117         void __iomem *regs;
118         unsigned int frame_size;
119
120         /*
121          * Protects buffer state, including buffer_queue, triplet_ready,
122          * cur_dma_frame_idx & cur_dma_frame_addr.
123          */
124         spinlock_t buffer_lock;
125         struct b3dfg_buffer *buffers;
126         struct list_head buffer_queue;
127
128         /* Last frame in triplet transferred (-1 if none). */
129         int cur_dma_frame_idx;
130
131         /* Current frame's address for DMA. */
132         dma_addr_t cur_dma_frame_addr;
133
134         /*
135          * Protects cstate_tstamp.
136          * Nests inside buffer_lock.
137          */
138         spinlock_t cstate_lock;
139         unsigned long cstate_tstamp;
140
141         /*
142          * Protects triplets_dropped.
143          * Nests inside buffers_lock.
144          */
145         spinlock_t triplets_dropped_lock;
146         unsigned int triplets_dropped;
147
148         wait_queue_head_t buffer_waitqueue;
149
150         unsigned int transmission_enabled:1;
151         unsigned int triplet_ready:1;
152 };
153
154 static u8 b3dfg_devices[B3DFG_MAX_DEVS];
155
156 static struct class *b3dfg_class;
157 static dev_t b3dfg_devt;
158
159 static const struct pci_device_id b3dfg_ids[] __devinitdata = {
160         { PCI_DEVICE(0x0b3d, 0x0001) },
161         { },
162 };
163
164 MODULE_DEVICE_TABLE(pci, b3dfg_ids);
165
166 /***** user-visible types *****/
167
168 struct b3dfg_poll {
169         int buffer_idx;
170         unsigned int triplets_dropped;
171 };
172
173 struct b3dfg_wait {
174         int buffer_idx;
175         unsigned int timeout;
176         unsigned int triplets_dropped;
177 };
178
179 /**** register I/O ****/
180
181 static u32 b3dfg_read32(struct b3dfg_dev *fgdev, u16 reg)
182 {
183         return ioread32(fgdev->regs + reg);
184 }
185
186 static void b3dfg_write32(struct b3dfg_dev *fgdev, u16 reg, u32 value)
187 {
188         iowrite32(value, fgdev->regs + reg);
189 }
190
191 /**** buffer management ****/
192
193 /*
194  * Program EC220 for transfer of a specific frame.
195  * Called with buffer_lock held.
196  */
197 static int setup_frame_transfer(struct b3dfg_dev *fgdev,
198         struct b3dfg_buffer *buf, int frame)
199 {
200         unsigned char *frm_addr;
201         dma_addr_t frm_addr_dma;
202         unsigned int frm_size = fgdev->frame_size;
203
204         frm_addr = buf->frame[frame];
205         frm_addr_dma = pci_map_single(fgdev->pdev, frm_addr,
206                                           frm_size, PCI_DMA_FROMDEVICE);
207         if (pci_dma_mapping_error(fgdev->pdev, frm_addr_dma))
208                 return -ENOMEM;
209
210         fgdev->cur_dma_frame_addr = frm_addr_dma;
211         fgdev->cur_dma_frame_idx = frame;
212
213         b3dfg_write32(fgdev, B3D_REG_EC220_DMA_ADDR,
214                                         cpu_to_le32(frm_addr_dma));
215         b3dfg_write32(fgdev, B3D_REG_EC220_TRF_SIZE,
216                                         cpu_to_le32(frm_size >> 2));
217         b3dfg_write32(fgdev, B3D_REG_EC220_DMA_STS, 0xf);
218
219         return 0;
220 }
221
222 /* Caller should hold buffer lock */
223 static void dequeue_all_buffers(struct b3dfg_dev *fgdev)
224 {
225         int i;
226         for (i = 0; i < b3dfg_nbuf; i++) {
227                 struct b3dfg_buffer *buf = &fgdev->buffers[i];
228                 buf->state = B3DFG_BUFFER_POLLED;
229                 list_del_init(&buf->list);
230         }
231 }
232
233 /* queue a buffer to receive data */
234 static int queue_buffer(struct b3dfg_dev *fgdev, int bufidx)
235 {
236         struct device *dev = &fgdev->pdev->dev;
237         struct b3dfg_buffer *buf;
238         unsigned long flags;
239         int r = 0;
240
241         spin_lock_irqsave(&fgdev->buffer_lock, flags);
242         if (bufidx < 0 || bufidx >= b3dfg_nbuf) {
243                 dev_dbg(dev, "Invalid buffer index, %d\n", bufidx);
244                 r = -ENOENT;
245                 goto out;
246         }
247         buf = &fgdev->buffers[bufidx];
248
249         if (unlikely(buf->state == B3DFG_BUFFER_PENDING)) {
250                 dev_dbg(dev, "buffer %d is already queued\n", bufidx);
251                 r = -EINVAL;
252                 goto out;
253         }
254
255         buf->state = B3DFG_BUFFER_PENDING;
256         list_add_tail(&buf->list, &fgdev->buffer_queue);
257
258         if (fgdev->transmission_enabled && fgdev->triplet_ready) {
259                 dev_dbg(dev, "triplet is ready, pushing immediately\n");
260                 fgdev->triplet_ready = 0;
261                 r = setup_frame_transfer(fgdev, buf, 0);
262                 if (r)
263                         dev_err(dev, "unable to map DMA buffer\n");
264         }
265
266 out:
267         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
268         return r;
269 }
270
271 /* non-blocking buffer poll. returns 1 if data is present in the buffer,
272  * 0 otherwise */
273 static int poll_buffer(struct b3dfg_dev *fgdev, void __user *arg)
274 {
275         struct device *dev = &fgdev->pdev->dev;
276         struct b3dfg_poll p;
277         struct b3dfg_buffer *buf;
278         unsigned long flags;
279         int r = 1;
280         int arg_out = 0;
281
282         if (copy_from_user(&p, arg, sizeof(p)))
283                 return -EFAULT;
284
285         if (unlikely(!fgdev->transmission_enabled)) {
286                 dev_dbg(dev, "cannot poll, transmission disabled\n");
287                 return -EINVAL;
288         }
289
290         if (p.buffer_idx < 0 || p.buffer_idx >= b3dfg_nbuf)
291                 return -ENOENT;
292
293         buf = &fgdev->buffers[p.buffer_idx];
294
295         spin_lock_irqsave(&fgdev->buffer_lock, flags);
296
297         if (likely(buf->state == B3DFG_BUFFER_POPULATED)) {
298                 arg_out = 1;
299                 buf->state = B3DFG_BUFFER_POLLED;
300
301                 /* IRQs already disabled by spin_lock_irqsave above. */
302                 spin_lock(&fgdev->triplets_dropped_lock);
303                 p.triplets_dropped = fgdev->triplets_dropped;
304                 fgdev->triplets_dropped = 0;
305                 spin_unlock(&fgdev->triplets_dropped_lock);
306         } else {
307                 r = 0;
308         }
309
310         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
311
312         if (arg_out && copy_to_user(arg, &p, sizeof(p)))
313                 r = -EFAULT;
314
315         return r;
316 }
317
318 static unsigned long get_cstate_change(struct b3dfg_dev *fgdev)
319 {
320         unsigned long flags, when;
321
322         spin_lock_irqsave(&fgdev->cstate_lock, flags);
323         when = fgdev->cstate_tstamp;
324         spin_unlock_irqrestore(&fgdev->cstate_lock, flags);
325         return when;
326 }
327
328 static int is_event_ready(struct b3dfg_dev *fgdev, struct b3dfg_buffer *buf,
329                           unsigned long when)
330 {
331         int result;
332         unsigned long flags;
333
334         spin_lock_irqsave(&fgdev->buffer_lock, flags);
335         spin_lock(&fgdev->cstate_lock);
336         result = (!fgdev->transmission_enabled ||
337                   buf->state == B3DFG_BUFFER_POPULATED ||
338                   when != fgdev->cstate_tstamp);
339         spin_unlock(&fgdev->cstate_lock);
340         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
341
342         return result;
343 }
344
345 /* sleep until a specific buffer becomes populated */
346 static int wait_buffer(struct b3dfg_dev *fgdev, void __user *arg)
347 {
348         struct device *dev = &fgdev->pdev->dev;
349         struct b3dfg_wait w;
350         struct b3dfg_buffer *buf;
351         unsigned long flags, when;
352         int r;
353
354         if (copy_from_user(&w, arg, sizeof(w)))
355                 return -EFAULT;
356
357         if (!fgdev->transmission_enabled) {
358                 dev_dbg(dev, "cannot wait, transmission disabled\n");
359                 return -EINVAL;
360         }
361
362         if (w.buffer_idx < 0 || w.buffer_idx >= b3dfg_nbuf)
363                 return -ENOENT;
364
365         buf = &fgdev->buffers[w.buffer_idx];
366
367         spin_lock_irqsave(&fgdev->buffer_lock, flags);
368
369         if (buf->state == B3DFG_BUFFER_POPULATED) {
370                 r = w.timeout;
371                 goto out_triplets_dropped;
372         }
373
374         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
375
376         when = get_cstate_change(fgdev);
377         if (w.timeout > 0) {
378                 r = wait_event_interruptible_timeout(fgdev->buffer_waitqueue,
379                         is_event_ready(fgdev, buf, when),
380                         (w.timeout * HZ) / 1000);
381
382                 if (unlikely(r < 0))
383                         goto out;
384
385                 w.timeout = r * 1000 / HZ;
386         } else {
387                 r = wait_event_interruptible(fgdev->buffer_waitqueue,
388                         is_event_ready(fgdev, buf, when));
389
390                 if (unlikely(r)) {
391                         r = -ERESTARTSYS;
392                         goto out;
393                 }
394         }
395
396         /* TODO: Inform the user via field(s) in w? */
397         if (!fgdev->transmission_enabled || when != get_cstate_change(fgdev)) {
398                 r = -EINVAL;
399                 goto out;
400         }
401
402         spin_lock_irqsave(&fgdev->buffer_lock, flags);
403
404         if (buf->state != B3DFG_BUFFER_POPULATED) {
405                 r = -ETIMEDOUT;
406                 goto out_unlock;
407         }
408
409         buf->state = B3DFG_BUFFER_POLLED;
410
411 out_triplets_dropped:
412
413         /* IRQs already disabled by spin_lock_irqsave above. */
414         spin_lock(&fgdev->triplets_dropped_lock);
415         w.triplets_dropped = fgdev->triplets_dropped;
416         fgdev->triplets_dropped = 0;
417         spin_unlock(&fgdev->triplets_dropped_lock);
418
419 out_unlock:
420         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
421         if (copy_to_user(arg, &w, sizeof(w)))
422                 r = -EFAULT;
423 out:
424         return r;
425 }
426
427 /* mmap page fault handler */
428 static int b3dfg_vma_fault(struct vm_area_struct *vma,
429         struct vm_fault *vmf)
430 {
431         struct b3dfg_dev *fgdev = vma->vm_file->private_data;
432         unsigned long off = vmf->pgoff << PAGE_SHIFT;
433         unsigned int frame_size = fgdev->frame_size;
434         unsigned int buf_size = frame_size * B3DFG_FRAMES_PER_BUFFER;
435         unsigned char *addr;
436
437         /* determine which buffer the offset lies within */
438         unsigned int buf_idx = off / buf_size;
439         /* and the offset into the buffer */
440         unsigned int buf_off = off % buf_size;
441
442         /* determine which frame inside the buffer the offset lies in */
443         unsigned int frm_idx = buf_off / frame_size;
444         /* and the offset into the frame */
445         unsigned int frm_off = buf_off % frame_size;
446
447         if (unlikely(buf_idx >= b3dfg_nbuf))
448                 return VM_FAULT_SIGBUS;
449
450         addr = fgdev->buffers[buf_idx].frame[frm_idx] + frm_off;
451         vm_insert_pfn(vma, (unsigned long)vmf->virtual_address,
452                           virt_to_phys(addr) >> PAGE_SHIFT);
453
454         return VM_FAULT_NOPAGE;
455 }
456
457 static struct vm_operations_struct b3dfg_vm_ops = {
458         .fault = b3dfg_vma_fault,
459 };
460
461 static int get_wand_status(struct b3dfg_dev *fgdev, int __user *arg)
462 {
463         u32 wndstat = b3dfg_read32(fgdev, B3D_REG_WAND_STS);
464         dev_dbg(&fgdev->pdev->dev, "wand status %x\n", wndstat);
465         return __put_user(wndstat & 0x1, arg);
466 }
467
468 static int enable_transmission(struct b3dfg_dev *fgdev)
469 {
470         u16 command;
471         unsigned long flags;
472         struct device *dev = &fgdev->pdev->dev;
473
474         dev_dbg(dev, "enable transmission\n");
475
476         /* check the cable is plugged in. */
477         if (!b3dfg_read32(fgdev, B3D_REG_WAND_STS)) {
478                 dev_dbg(dev, "cannot start transmission without wand\n");
479                 return -EINVAL;
480         }
481
482         /*
483          * Check we're a bus master.
484          * TODO: I think we can remove this having added the pci_set_master call
485          */
486         pci_read_config_word(fgdev->pdev, PCI_COMMAND, &command);
487         if (!(command & PCI_COMMAND_MASTER)) {
488                 dev_err(dev, "not a bus master, force-enabling\n");
489                 pci_write_config_word(fgdev->pdev, PCI_COMMAND,
490                         command | PCI_COMMAND_MASTER);
491         }
492
493         spin_lock_irqsave(&fgdev->buffer_lock, flags);
494
495         /* Handle racing enable_transmission calls. */
496         if (fgdev->transmission_enabled) {
497                 spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
498                 goto out;
499         }
500
501         spin_lock(&fgdev->triplets_dropped_lock);
502         fgdev->triplets_dropped = 0;
503         spin_unlock(&fgdev->triplets_dropped_lock);
504
505         fgdev->triplet_ready = 0;
506         fgdev->cur_dma_frame_idx = -1;
507         fgdev->transmission_enabled = 1;
508
509         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
510
511         /* Enable DMA and cable status interrupts. */
512         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0x03);
513
514 out:
515         return 0;
516 }
517
518 static void disable_transmission(struct b3dfg_dev *fgdev)
519 {
520         struct device *dev = &fgdev->pdev->dev;
521         unsigned long flags;
522         u32 tmp;
523
524         dev_dbg(dev, "disable transmission\n");
525
526         /* guarantee that no more interrupts will be serviced */
527         spin_lock_irqsave(&fgdev->buffer_lock, flags);
528         fgdev->transmission_enabled = 0;
529
530         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
531
532         /* FIXME: temporary debugging only. if the board stops transmitting,
533          * hitting ctrl+c and seeing this message is useful for determining
534          * the state of the board. */
535         tmp = b3dfg_read32(fgdev, B3D_REG_DMA_STS);
536         dev_dbg(dev, "DMA_STS reads %x after TX stopped\n", tmp);
537
538         dequeue_all_buffers(fgdev);
539         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
540
541         wake_up_interruptible(&fgdev->buffer_waitqueue);
542 }
543
544 static int set_transmission(struct b3dfg_dev *fgdev, int enabled)
545 {
546         int res = 0;
547
548         if (enabled && !fgdev->transmission_enabled)
549                 res = enable_transmission(fgdev);
550         else if (!enabled && fgdev->transmission_enabled)
551                 disable_transmission(fgdev);
552
553         return res;
554 }
555
556 /* Called in interrupt context. */
557 static void handle_cstate_unplug(struct b3dfg_dev *fgdev)
558 {
559         /* Disable all interrupts. */
560         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
561
562         /* Stop transmission. */
563         spin_lock(&fgdev->buffer_lock);
564         fgdev->transmission_enabled = 0;
565
566         fgdev->cur_dma_frame_idx = -1;
567         fgdev->triplet_ready = 0;
568         if (fgdev->cur_dma_frame_addr) {
569                 pci_unmap_single(fgdev->pdev, fgdev->cur_dma_frame_addr,
570                                  fgdev->frame_size, PCI_DMA_FROMDEVICE);
571                 fgdev->cur_dma_frame_addr = 0;
572         }
573         dequeue_all_buffers(fgdev);
574         spin_unlock(&fgdev->buffer_lock);
575 }
576
577 /* Called in interrupt context. */
578 static void handle_cstate_change(struct b3dfg_dev *fgdev)
579 {
580         u32 cstate = b3dfg_read32(fgdev, B3D_REG_WAND_STS);
581         unsigned long when;
582         struct device *dev = &fgdev->pdev->dev;
583
584         dev_dbg(dev, "cable state change: %u\n", cstate);
585
586         /*
587          * When the wand is unplugged we reset our state. The hardware will
588          * have done the same internally.
589          *
590          * Note we should never see a cable *plugged* event, as interrupts
591          * should only be enabled when transmitting, which requires the cable
592          * to be plugged. If we do see one it probably means the cable has been
593          * unplugged and re-plugged very rapidly. Possibly because it has a
594          * broken wire and is momentarily losing contact.
595          *
596          * TODO: At the moment if you plug in the cable then enable transmission
597          * the hardware will raise a couple of spurious interrupts, so
598          * just ignore them for now.
599          *
600          * Once the hardware is fixed we should complain and treat it as an
601          * unplug. Or at least track how frequently it is happening and do
602          * so if too many come in.
603          */
604         if (cstate) {
605                 dev_warn(dev, "ignoring unexpected plug event\n");
606                 return;
607         }
608         handle_cstate_unplug(fgdev);
609
610         /*
611          * Record cable state change timestamp & wake anyone waiting
612          * on a cable state change. Be paranoid about ensuring events
613          * are not missed if we somehow get two interrupts in a jiffy.
614          */
615         spin_lock(&fgdev->cstate_lock);
616         when = jiffies_64;
617         if (when <= fgdev->cstate_tstamp)
618                 when = fgdev->cstate_tstamp + 1;
619         fgdev->cstate_tstamp = when;
620         wake_up_interruptible(&fgdev->buffer_waitqueue);
621         spin_unlock(&fgdev->cstate_lock);
622 }
623
624 /* Called with buffer_lock held. */
625 static void transfer_complete(struct b3dfg_dev *fgdev)
626 {
627         struct b3dfg_buffer *buf;
628         struct device *dev = &fgdev->pdev->dev;
629
630         pci_unmap_single(fgdev->pdev, fgdev->cur_dma_frame_addr,
631                          fgdev->frame_size, PCI_DMA_FROMDEVICE);
632         fgdev->cur_dma_frame_addr = 0;
633
634         buf = list_entry(fgdev->buffer_queue.next, struct b3dfg_buffer, list);
635         if (buf) {
636                 dev_dbg(dev, "handle frame completion\n");
637                 if (fgdev->cur_dma_frame_idx == B3DFG_FRAMES_PER_BUFFER - 1) {
638
639                         /* last frame of that triplet completed */
640                         dev_dbg(dev, "triplet completed\n");
641                         buf->state = B3DFG_BUFFER_POPULATED;
642                         list_del_init(&buf->list);
643                         wake_up_interruptible(&fgdev->buffer_waitqueue);
644                 }
645         } else {
646                 dev_err(dev, "got frame but no buffer!\n");
647         }
648 }
649
650 /*
651  * Called with buffer_lock held.
652  *
653  * Note that idx is the (1-based) *next* frame to be transferred, while
654  * cur_dma_frame_idx is the (0-based) *last* frame to have been transferred (or
655  * -1 if none). Thus there should be a difference of 2 between them.
656  */
657 static bool setup_next_frame_transfer(struct b3dfg_dev *fgdev, int idx)
658 {
659         struct b3dfg_buffer *buf;
660         struct device *dev = &fgdev->pdev->dev;
661         bool need_ack = 1;
662
663         dev_dbg(dev, "program DMA transfer for next frame: %d\n", idx);
664
665         buf = list_entry(fgdev->buffer_queue.next, struct b3dfg_buffer, list);
666         if (buf) {
667                 if (idx == fgdev->cur_dma_frame_idx + 2) {
668                         if (setup_frame_transfer(fgdev, buf, idx - 1))
669                                 dev_err(dev, "unable to map DMA buffer\n");
670                         need_ack = 0;
671                 } else {
672                         dev_err(dev, "frame mismatch, got %d, expected %d\n",
673                                 idx, fgdev->cur_dma_frame_idx + 2);
674
675                         /* FIXME: handle dropped triplets here */
676                 }
677         } else {
678                 dev_err(dev, "cannot setup DMA, no buffer\n");
679         }
680
681         return need_ack;
682 }
683
684 static irqreturn_t b3dfg_intr(int irq, void *dev_id)
685 {
686         struct b3dfg_dev *fgdev = dev_id;
687         struct device *dev = &fgdev->pdev->dev;
688         u32 sts;
689         u8 dropped;
690         bool need_ack = 1;
691         irqreturn_t res = IRQ_HANDLED;
692
693         sts = b3dfg_read32(fgdev, B3D_REG_DMA_STS);
694         if (unlikely(sts == 0)) {
695                 dev_warn(dev, "ignore interrupt, DMA status is 0\n");
696                 res = IRQ_NONE;
697                 goto out;
698         }
699
700         if (unlikely(!fgdev->transmission_enabled)) {
701                 dev_warn(dev, "ignore interrupt, TX disabled\n");
702                 res = IRQ_HANDLED;
703                 goto out;
704         }
705
706         /* Handle dropped frames, as reported by the hardware. */
707         dropped = (sts >> 8) & 0xff;
708         dev_dbg(dev, "intr: DMA_STS=%08x (drop=%d comp=%d next=%d)\n",
709                 sts, dropped, !!(sts & 0x4), sts & 0x3);
710         if (unlikely(dropped > 0)) {
711                 spin_lock(&fgdev->triplets_dropped_lock);
712                 fgdev->triplets_dropped += dropped;
713                 spin_unlock(&fgdev->triplets_dropped_lock);
714         }
715
716         /* Handle a cable state change (i.e. the wand being unplugged). */
717         if (sts & 0x08) {
718                 handle_cstate_change(fgdev);
719                 goto out;
720         }
721
722         spin_lock(&fgdev->buffer_lock);
723         if (unlikely(list_empty(&fgdev->buffer_queue))) {
724
725                 /* FIXME need more sanity checking here */
726                 dev_info(dev, "buffer not ready for next transfer\n");
727                 fgdev->triplet_ready = 1;
728                 goto out_unlock;
729         }
730
731         /* Has a frame transfer been completed? */
732         if (sts & 0x4) {
733                 u32 dma_status = b3dfg_read32(fgdev, B3D_REG_EC220_DMA_STS);
734
735                 /* Check for DMA errors reported by the hardware. */
736                 if (unlikely(dma_status & 0x1)) {
737                         dev_err(dev, "EC220 error: %08x\n", dma_status);
738
739                         /* FIXME flesh out error handling */
740                         goto out_unlock;
741                 }
742
743                 /* Sanity check, we should have a frame index at this point. */
744                 if (unlikely(fgdev->cur_dma_frame_idx == -1)) {
745                         dev_err(dev, "completed but no last idx?\n");
746
747                         /* FIXME flesh out error handling */
748                         goto out_unlock;
749                 }
750
751                 transfer_complete(fgdev);
752         }
753
754         /* Is there another frame transfer pending? */
755         if (sts & 0x3)
756                 need_ack = setup_next_frame_transfer(fgdev, sts & 0x3);
757         else
758                 fgdev->cur_dma_frame_idx = -1;
759
760 out_unlock:
761         spin_unlock(&fgdev->buffer_lock);
762 out:
763         if (need_ack) {
764                 dev_dbg(dev, "acknowledging interrupt\n");
765                 b3dfg_write32(fgdev, B3D_REG_EC220_DMA_STS, 0x0b);
766         }
767         return res;
768 }
769
770 static int b3dfg_open(struct inode *inode, struct file *filp)
771 {
772         struct b3dfg_dev *fgdev =
773                 container_of(inode->i_cdev, struct b3dfg_dev, chardev);
774
775         dev_dbg(&fgdev->pdev->dev, "open\n");
776         filp->private_data = fgdev;
777         return 0;
778 }
779
780 static int b3dfg_release(struct inode *inode, struct file *filp)
781 {
782         struct b3dfg_dev *fgdev = filp->private_data;
783         dev_dbg(&fgdev->pdev->dev, "release\n");
784         disable_transmission(fgdev);
785         return 0;
786 }
787
788 static long b3dfg_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
789 {
790         struct b3dfg_dev *fgdev = filp->private_data;
791
792         switch (cmd) {
793         case B3DFG_IOCGFRMSZ:
794                 return __put_user(fgdev->frame_size, (int __user *) arg);
795         case B3DFG_IOCGWANDSTAT:
796                 return get_wand_status(fgdev, (int __user *) arg);
797         case B3DFG_IOCTTRANS:
798                 return set_transmission(fgdev, (int) arg);
799         case B3DFG_IOCTQUEUEBUF:
800                 return queue_buffer(fgdev, (int) arg);
801         case B3DFG_IOCTPOLLBUF:
802                 return poll_buffer(fgdev, (void __user *) arg);
803         case B3DFG_IOCTWAITBUF:
804                 return wait_buffer(fgdev, (void __user *) arg);
805         default:
806                 dev_dbg(&fgdev->pdev->dev, "unrecognised ioctl %x\n", cmd);
807                 return -EINVAL;
808         }
809 }
810
811 static unsigned int b3dfg_poll(struct file *filp, poll_table *poll_table)
812 {
813         struct b3dfg_dev *fgdev = filp->private_data;
814         unsigned long flags, when;
815         int i;
816         int r = 0;
817
818         when = get_cstate_change(fgdev);
819         poll_wait(filp, &fgdev->buffer_waitqueue, poll_table);
820
821         spin_lock_irqsave(&fgdev->buffer_lock, flags);
822         for (i = 0; i < b3dfg_nbuf; i++) {
823                 if (fgdev->buffers[i].state == B3DFG_BUFFER_POPULATED) {
824                         r = POLLIN | POLLRDNORM;
825                         break;
826                 }
827         }
828         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
829
830         /* TODO: Confirm this is how we want to communicate the change. */
831         if (!fgdev->transmission_enabled || when != get_cstate_change(fgdev))
832                 r = POLLERR;
833
834         return r;
835 }
836
837 static int b3dfg_mmap(struct file *filp, struct vm_area_struct *vma)
838 {
839         struct b3dfg_dev *fgdev = filp->private_data;
840         unsigned long offset = vma->vm_pgoff << PAGE_SHIFT;
841         unsigned long vsize = vma->vm_end - vma->vm_start;
842         unsigned long bufdatalen = b3dfg_nbuf * fgdev->frame_size * 3;
843         unsigned long psize = bufdatalen - offset;
844         int r = 0;
845
846         if (vsize <= psize) {
847                 vma->vm_flags |= VM_IO | VM_RESERVED | VM_CAN_NONLINEAR |
848                                  VM_PFNMAP;
849                 vma->vm_ops = &b3dfg_vm_ops;
850         } else {
851                 r = -EINVAL;
852         }
853
854         return r;
855 }
856
857 static struct file_operations b3dfg_fops = {
858         .owner = THIS_MODULE,
859         .open = b3dfg_open,
860         .release = b3dfg_release,
861         .unlocked_ioctl = b3dfg_ioctl,
862         .poll = b3dfg_poll,
863         .mmap = b3dfg_mmap,
864 };
865
866 static void free_all_frame_buffers(struct b3dfg_dev *fgdev)
867 {
868         int i, j;
869         for (i = 0; i < b3dfg_nbuf; i++)
870                 for (j = 0; j < B3DFG_FRAMES_PER_BUFFER; j++)
871                         kfree(fgdev->buffers[i].frame[j]);
872         kfree(fgdev->buffers);
873 }
874
875 /* initialize device and any data structures. called before any interrupts
876  * are enabled. */
877 static int b3dfg_init_dev(struct b3dfg_dev *fgdev)
878 {
879         int i, j;
880         u32 frm_size = b3dfg_read32(fgdev, B3D_REG_FRM_SIZE);
881
882         /* Disable interrupts. In abnormal circumstances (e.g. after a crash)
883          * the board may still be transmitting from the previous session. If we
884          * ensure that interrupts are disabled before we later enable them, we
885          * are sure to capture a triplet from the start, rather than starting
886          * from frame 2 or 3. Disabling interrupts causes the FG to throw away
887          * all buffered data and stop buffering more until interrupts are
888          * enabled again.
889          */
890         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
891
892         fgdev->frame_size = frm_size * 4096;
893         fgdev->buffers = kzalloc(sizeof(struct b3dfg_buffer) * b3dfg_nbuf,
894                                  GFP_KERNEL);
895         if (!fgdev->buffers)
896                 goto err_no_buf;
897         for (i = 0; i < b3dfg_nbuf; i++) {
898                 struct b3dfg_buffer *buf = &fgdev->buffers[i];
899                 for (j = 0; j < B3DFG_FRAMES_PER_BUFFER; j++) {
900                         buf->frame[j] = kmalloc(fgdev->frame_size, GFP_KERNEL);
901                         if (!buf->frame[j])
902                                 goto err_no_mem;
903                 }
904                 INIT_LIST_HEAD(&buf->list);
905         }
906
907         INIT_LIST_HEAD(&fgdev->buffer_queue);
908         init_waitqueue_head(&fgdev->buffer_waitqueue);
909         spin_lock_init(&fgdev->buffer_lock);
910         spin_lock_init(&fgdev->cstate_lock);
911         spin_lock_init(&fgdev->triplets_dropped_lock);
912         return 0;
913
914 err_no_mem:
915         free_all_frame_buffers(fgdev);
916 err_no_buf:
917         return -ENOMEM;
918 }
919
920 /* find next free minor number, returns -1 if none are availabile */
921 static int get_free_minor(void)
922 {
923         int i;
924         for (i = 0; i < B3DFG_MAX_DEVS; i++) {
925                 if (b3dfg_devices[i] == 0)
926                         return i;
927         }
928         return -1;
929 }
930
931 static int __devinit b3dfg_probe(struct pci_dev *pdev,
932         const struct pci_device_id *id)
933 {
934         struct b3dfg_dev *fgdev = kzalloc(sizeof(*fgdev), GFP_KERNEL);
935         int r = 0;
936         int minor = get_free_minor();
937         dev_t devno = MKDEV(MAJOR(b3dfg_devt), minor);
938         unsigned long res_len;
939         resource_size_t res_base;
940
941         if (fgdev == NULL)
942                 return -ENOMEM;
943
944         if (minor < 0) {
945                 dev_err(&pdev->dev, "too many devices found!\n");
946                 r = -EIO;
947                 goto err_free;
948         }
949
950         b3dfg_devices[minor] = 1;
951         dev_info(&pdev->dev, "probe device with IRQ %d\n", pdev->irq);
952
953         cdev_init(&fgdev->chardev, &b3dfg_fops);
954         fgdev->chardev.owner = THIS_MODULE;
955
956         r = cdev_add(&fgdev->chardev, devno, 1);
957         if (r) {
958                 dev_err(&pdev->dev, "cannot add char device\n");
959                 goto err_release_minor;
960         }
961
962         fgdev->dev = device_create(
963                 b3dfg_class,
964                 &pdev->dev,
965                 devno,
966                 dev_get_drvdata(&pdev->dev),
967                 DRIVER_NAME "%d", minor);
968
969         if (IS_ERR(fgdev->dev)) {
970                 dev_err(&pdev->dev, "cannot create device\n");
971                 r = PTR_ERR(fgdev->dev);
972                 goto err_del_cdev;
973         }
974
975         r = pci_enable_device(pdev);
976         if (r) {
977                 dev_err(&pdev->dev, "cannot enable PCI device\n");
978                 goto err_dev_unreg;
979         }
980
981         res_len = pci_resource_len(pdev, B3DFG_BAR_REGS);
982         if (res_len != B3DFG_REGS_LENGTH) {
983                 dev_err(&pdev->dev, "invalid register resource size\n");
984                 r = -EIO;
985                 goto err_disable;
986         }
987
988         if (pci_resource_flags(pdev, B3DFG_BAR_REGS)
989                                 != (IORESOURCE_MEM | IORESOURCE_SIZEALIGN)) {
990                 dev_err(&pdev->dev, "invalid resource flags\n");
991                 r = -EIO;
992                 goto err_disable;
993         }
994         r = pci_request_regions(pdev, DRIVER_NAME);
995         if (r) {
996                 dev_err(&pdev->dev, "cannot obtain PCI resources\n");
997                 goto err_disable;
998         }
999
1000         pci_set_master(pdev);
1001
1002         r = pci_set_dma_mask(pdev, DMA_BIT_MASK(32));
1003         if (r) {
1004                 dev_err(&pdev->dev, "no usable DMA configuration\n");
1005                 goto err_free_res;
1006         }
1007
1008         res_base = pci_resource_start(pdev, B3DFG_BAR_REGS);
1009         fgdev->regs = ioremap_nocache(res_base, res_len);
1010         if (!fgdev->regs) {
1011                 dev_err(&pdev->dev, "regs ioremap failed\n");
1012                 r = -EIO;
1013                 goto err_free_res;
1014         }
1015
1016         fgdev->pdev = pdev;
1017         pci_set_drvdata(pdev, fgdev);
1018         r = b3dfg_init_dev(fgdev);
1019         if (r < 0) {
1020                 dev_err(&pdev->dev, "failed to initalize device\n");
1021                 goto err_unmap;
1022         }
1023
1024         r = request_irq(pdev->irq, b3dfg_intr, IRQF_SHARED, DRIVER_NAME, fgdev);
1025         if (r) {
1026                 dev_err(&pdev->dev, "couldn't request irq %d\n", pdev->irq);
1027                 goto err_free_bufs;
1028         }
1029
1030         return 0;
1031
1032 err_free_bufs:
1033         free_all_frame_buffers(fgdev);
1034 err_unmap:
1035         iounmap(fgdev->regs);
1036 err_free_res:
1037         pci_release_regions(pdev);
1038 err_disable:
1039         pci_disable_device(pdev);
1040 err_dev_unreg:
1041         device_destroy(b3dfg_class, devno);
1042 err_del_cdev:
1043         cdev_del(&fgdev->chardev);
1044 err_release_minor:
1045         b3dfg_devices[minor] = 0;
1046 err_free:
1047         kfree(fgdev);
1048         return r;
1049 }
1050
1051 static void __devexit b3dfg_remove(struct pci_dev *pdev)
1052 {
1053         struct b3dfg_dev *fgdev = pci_get_drvdata(pdev);
1054         unsigned int minor = MINOR(fgdev->chardev.dev);
1055
1056         dev_dbg(&pdev->dev, "remove\n");
1057
1058         free_irq(pdev->irq, fgdev);
1059         iounmap(fgdev->regs);
1060         pci_release_regions(pdev);
1061         pci_disable_device(pdev);
1062         device_destroy(b3dfg_class, MKDEV(MAJOR(b3dfg_devt), minor));
1063         cdev_del(&fgdev->chardev);
1064         free_all_frame_buffers(fgdev);
1065         kfree(fgdev);
1066         b3dfg_devices[minor] = 0;
1067 }
1068
1069 static struct pci_driver b3dfg_driver = {
1070         .name = DRIVER_NAME,
1071         .id_table = b3dfg_ids,
1072         .probe = b3dfg_probe,
1073         .remove = __devexit_p(b3dfg_remove),
1074 };
1075
1076 static int __init b3dfg_module_init(void)
1077 {
1078         int r;
1079
1080         if (b3dfg_nbuf < 2) {
1081                 printk(KERN_ERR DRIVER_NAME
1082                            ": buffer_count is out of range (must be >= 2)");
1083                 return -EINVAL;
1084         }
1085
1086         printk(KERN_INFO DRIVER_NAME ": loaded\n");
1087
1088         b3dfg_class = class_create(THIS_MODULE, DRIVER_NAME);
1089         if (IS_ERR(b3dfg_class))
1090                 return PTR_ERR(b3dfg_class);
1091
1092         r = alloc_chrdev_region(&b3dfg_devt, 0, B3DFG_MAX_DEVS, DRIVER_NAME);
1093         if (r)
1094                 goto err1;
1095
1096         r = pci_register_driver(&b3dfg_driver);
1097         if (r)
1098                 goto err2;
1099
1100         return r;
1101
1102 err2:
1103         unregister_chrdev_region(b3dfg_devt, B3DFG_MAX_DEVS);
1104 err1:
1105         class_destroy(b3dfg_class);
1106         return r;
1107 }
1108
1109 static void __exit b3dfg_module_exit(void)
1110 {
1111         printk(KERN_INFO DRIVER_NAME ": unloaded\n");
1112         pci_unregister_driver(&b3dfg_driver);
1113         unregister_chrdev_region(b3dfg_devt, B3DFG_MAX_DEVS);
1114         class_destroy(b3dfg_class);
1115 }
1116
1117 module_init(b3dfg_module_init);
1118 module_exit(b3dfg_module_exit);