Merge master.kernel.org:/pub/scm/linux/kernel/git/davem/net-2.6
[linux-2.6] / drivers / net / epic100.c
1 /* epic100.c: A SMC 83c170 EPIC/100 Fast Ethernet driver for Linux. */
2 /*
3         Written/copyright 1997-2001 by Donald Becker.
4
5         This software may be used and distributed according to the terms of
6         the GNU General Public License (GPL), incorporated herein by reference.
7         Drivers based on or derived from this code fall under the GPL and must
8         retain the authorship, copyright and license notice.  This file is not
9         a complete program and may only be used when the entire operating
10         system is licensed under the GPL.
11
12         This driver is for the SMC83c170/175 "EPIC" series, as used on the
13         SMC EtherPower II 9432 PCI adapter, and several CardBus cards.
14
15         The author may be reached as becker@scyld.com, or C/O
16         Scyld Computing Corporation
17         410 Severn Ave., Suite 210
18         Annapolis MD 21403
19
20         Information and updates available at
21         http://www.scyld.com/network/epic100.html
22
23         ---------------------------------------------------------------------
24
25         Linux kernel-specific changes:
26
27         LK1.1.2 (jgarzik):
28         * Merge becker version 1.09 (4/08/2000)
29
30         LK1.1.3:
31         * Major bugfix to 1.09 driver (Francis Romieu)
32
33         LK1.1.4 (jgarzik):
34         * Merge becker test version 1.09 (5/29/2000)
35
36         LK1.1.5:
37         * Fix locking (jgarzik)
38         * Limit 83c175 probe to ethernet-class PCI devices (rgooch)
39
40         LK1.1.6:
41         * Merge becker version 1.11
42         * Move pci_enable_device before any PCI BAR len checks
43
44         LK1.1.7:
45         * { fill me in }
46
47         LK1.1.8:
48         * ethtool driver info support (jgarzik)
49
50         LK1.1.9:
51         * ethtool media get/set support (jgarzik)
52
53         LK1.1.10:
54         * revert MII transceiver init change (jgarzik)
55
56         LK1.1.11:
57         * implement ETHTOOL_[GS]SET, _NWAY_RST, _[GS]MSGLVL, _GLINK (jgarzik)
58         * replace some MII-related magic numbers with constants
59
60         LK1.1.12:
61         * fix power-up sequence
62
63         LK1.1.13:
64         * revert version 1.1.12, power-up sequence "fix"
65
66         LK1.1.14 (Kryzsztof Halasa):
67         * fix spurious bad initializations
68         * pound phy a la SMSC's app note on the subject
69
70         AC1.1.14ac
71         * fix power up/down for ethtool that broke in 1.11
72
73 */
74
75 #define DRV_NAME        "epic100"
76 #define DRV_VERSION     "1.11+LK1.1.14+AC1.1.14"
77 #define DRV_RELDATE     "June 2, 2004"
78
79 /* The user-configurable values.
80    These may be modified when a driver module is loaded.*/
81
82 static int debug = 1;                   /* 1 normal messages, 0 quiet .. 7 verbose. */
83
84 /* Used to pass the full-duplex flag, etc. */
85 #define MAX_UNITS 8             /* More are supported, limit only on options */
86 static int options[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
87 static int full_duplex[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
88
89 /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
90    Setting to > 1518 effectively disables this feature. */
91 static int rx_copybreak;
92
93 /* Operational parameters that are set at compile time. */
94
95 /* Keep the ring sizes a power of two for operational efficiency.
96    The compiler will convert <unsigned>'%'<2^N> into a bit mask.
97    Making the Tx ring too large decreases the effectiveness of channel
98    bonding and packet priority.
99    There are no ill effects from too-large receive rings. */
100 #define TX_RING_SIZE    256
101 #define TX_QUEUE_LEN    240             /* Limit ring entries actually used.  */
102 #define RX_RING_SIZE    256
103 #define TX_TOTAL_SIZE   TX_RING_SIZE*sizeof(struct epic_tx_desc)
104 #define RX_TOTAL_SIZE   RX_RING_SIZE*sizeof(struct epic_rx_desc)
105
106 /* Operational parameters that usually are not changed. */
107 /* Time in jiffies before concluding the transmitter is hung. */
108 #define TX_TIMEOUT  (2*HZ)
109
110 #define PKT_BUF_SZ              1536                    /* Size of each temporary Rx buffer.*/
111
112 /* Bytes transferred to chip before transmission starts. */
113 /* Initial threshold, increased on underflow, rounded down to 4 byte units. */
114 #define TX_FIFO_THRESH 256
115 #define RX_FIFO_THRESH 1                /* 0-3, 0==32, 64,96, or 3==128 bytes  */
116
117 #include <linux/config.h>
118 #include <linux/module.h>
119 #include <linux/kernel.h>
120 #include <linux/string.h>
121 #include <linux/timer.h>
122 #include <linux/errno.h>
123 #include <linux/ioport.h>
124 #include <linux/slab.h>
125 #include <linux/interrupt.h>
126 #include <linux/pci.h>
127 #include <linux/delay.h>
128 #include <linux/netdevice.h>
129 #include <linux/etherdevice.h>
130 #include <linux/skbuff.h>
131 #include <linux/init.h>
132 #include <linux/spinlock.h>
133 #include <linux/ethtool.h>
134 #include <linux/mii.h>
135 #include <linux/crc32.h>
136 #include <linux/bitops.h>
137 #include <asm/io.h>
138 #include <asm/uaccess.h>
139
140 /* These identify the driver base version and may not be removed. */
141 static char version[] __devinitdata =
142 DRV_NAME ".c:v1.11 1/7/2001 Written by Donald Becker <becker@scyld.com>\n";
143 static char version2[] __devinitdata =
144 "  http://www.scyld.com/network/epic100.html\n";
145 static char version3[] __devinitdata =
146 "  (unofficial 2.4.x kernel port, version " DRV_VERSION ", " DRV_RELDATE ")\n";
147
148 MODULE_AUTHOR("Donald Becker <becker@scyld.com>");
149 MODULE_DESCRIPTION("SMC 83c170 EPIC series Ethernet driver");
150 MODULE_LICENSE("GPL");
151
152 module_param(debug, int, 0);
153 module_param(rx_copybreak, int, 0);
154 module_param_array(options, int, NULL, 0);
155 module_param_array(full_duplex, int, NULL, 0);
156 MODULE_PARM_DESC(debug, "EPIC/100 debug level (0-5)");
157 MODULE_PARM_DESC(options, "EPIC/100: Bits 0-3: media type, bit 4: full duplex");
158 MODULE_PARM_DESC(rx_copybreak, "EPIC/100 copy breakpoint for copy-only-tiny-frames");
159 MODULE_PARM_DESC(full_duplex, "EPIC/100 full duplex setting(s) (1)");
160
161 /*
162                                 Theory of Operation
163
164 I. Board Compatibility
165
166 This device driver is designed for the SMC "EPIC/100", the SMC
167 single-chip Ethernet controllers for PCI.  This chip is used on
168 the SMC EtherPower II boards.
169
170 II. Board-specific settings
171
172 PCI bus devices are configured by the system at boot time, so no jumpers
173 need to be set on the board.  The system BIOS will assign the
174 PCI INTA signal to a (preferably otherwise unused) system IRQ line.
175 Note: Kernel versions earlier than 1.3.73 do not support shared PCI
176 interrupt lines.
177
178 III. Driver operation
179
180 IIIa. Ring buffers
181
182 IVb. References
183
184 http://www.smsc.com/main/datasheets/83c171.pdf
185 http://www.smsc.com/main/datasheets/83c175.pdf
186 http://scyld.com/expert/NWay.html
187 http://www.national.com/pf/DP/DP83840A.html
188
189 IVc. Errata
190
191 */
192
193
194 enum pci_id_flags_bits {
195         /* Set PCI command register bits before calling probe1(). */
196         PCI_USES_IO=1, PCI_USES_MEM=2, PCI_USES_MASTER=4,
197         /* Read and map the single following PCI BAR. */
198         PCI_ADDR0=0<<4, PCI_ADDR1=1<<4, PCI_ADDR2=2<<4, PCI_ADDR3=3<<4,
199         PCI_ADDR_64BITS=0x100, PCI_NO_ACPI_WAKE=0x200, PCI_NO_MIN_LATENCY=0x400,
200 };
201
202 enum chip_capability_flags { MII_PWRDWN=1, TYPE2_INTR=2, NO_MII=4 };
203
204 #define EPIC_TOTAL_SIZE 0x100
205 #define USE_IO_OPS 1
206 #ifdef USE_IO_OPS
207 #define EPIC_IOTYPE PCI_USES_MASTER|PCI_USES_IO|PCI_ADDR0
208 #else
209 #define EPIC_IOTYPE PCI_USES_MASTER|PCI_USES_MEM|PCI_ADDR1
210 #endif
211
212 typedef enum {
213         SMSC_83C170_0,
214         SMSC_83C170,
215         SMSC_83C175,
216 } chip_t;
217
218
219 struct epic_chip_info {
220         const char *name;
221         enum pci_id_flags_bits pci_flags;
222         int io_size;                            /* Needed for I/O region check or ioremap(). */
223         int drv_flags;                          /* Driver use, intended as capability flags. */
224 };
225
226
227 /* indexed by chip_t */
228 static const struct epic_chip_info pci_id_tbl[] = {
229         { "SMSC EPIC/100 83c170",
230          EPIC_IOTYPE, EPIC_TOTAL_SIZE, TYPE2_INTR | NO_MII | MII_PWRDWN },
231         { "SMSC EPIC/100 83c170",
232          EPIC_IOTYPE, EPIC_TOTAL_SIZE, TYPE2_INTR },
233         { "SMSC EPIC/C 83c175",
234          EPIC_IOTYPE, EPIC_TOTAL_SIZE, TYPE2_INTR | MII_PWRDWN },
235 };
236
237
238 static struct pci_device_id epic_pci_tbl[] = {
239         { 0x10B8, 0x0005, 0x1092, 0x0AB4, 0, 0, SMSC_83C170_0 },
240         { 0x10B8, 0x0005, PCI_ANY_ID, PCI_ANY_ID, 0, 0, SMSC_83C170 },
241         { 0x10B8, 0x0006, PCI_ANY_ID, PCI_ANY_ID,
242           PCI_CLASS_NETWORK_ETHERNET << 8, 0xffff00, SMSC_83C175 },
243         { 0,}
244 };
245 MODULE_DEVICE_TABLE (pci, epic_pci_tbl);
246
247
248 #ifndef USE_IO_OPS
249 #undef inb
250 #undef inw
251 #undef inl
252 #undef outb
253 #undef outw
254 #undef outl
255 #define inb readb
256 #define inw readw
257 #define inl readl
258 #define outb writeb
259 #define outw writew
260 #define outl writel
261 #endif
262
263 /* Offsets to registers, using the (ugh) SMC names. */
264 enum epic_registers {
265   COMMAND=0, INTSTAT=4, INTMASK=8, GENCTL=0x0C, NVCTL=0x10, EECTL=0x14,
266   PCIBurstCnt=0x18,
267   TEST1=0x1C, CRCCNT=0x20, ALICNT=0x24, MPCNT=0x28,     /* Rx error counters. */
268   MIICtrl=0x30, MIIData=0x34, MIICfg=0x38,
269   LAN0=64,                                              /* MAC address. */
270   MC0=80,                                               /* Multicast filter table. */
271   RxCtrl=96, TxCtrl=112, TxSTAT=0x74,
272   PRxCDAR=0x84, RxSTAT=0xA4, EarlyRx=0xB0, PTxCDAR=0xC4, TxThresh=0xDC,
273 };
274
275 /* Interrupt register bits, using my own meaningful names. */
276 enum IntrStatus {
277         TxIdle=0x40000, RxIdle=0x20000, IntrSummary=0x010000,
278         PCIBusErr170=0x7000, PCIBusErr175=0x1000, PhyEvent175=0x8000,
279         RxStarted=0x0800, RxEarlyWarn=0x0400, CntFull=0x0200, TxUnderrun=0x0100,
280         TxEmpty=0x0080, TxDone=0x0020, RxError=0x0010,
281         RxOverflow=0x0008, RxFull=0x0004, RxHeader=0x0002, RxDone=0x0001,
282 };
283 enum CommandBits {
284         StopRx=1, StartRx=2, TxQueued=4, RxQueued=8,
285         StopTxDMA=0x20, StopRxDMA=0x40, RestartTx=0x80,
286 };
287
288 #define EpicRemoved     0xffffffff      /* Chip failed or removed (CardBus) */
289
290 #define EpicNapiEvent   (TxEmpty | TxDone | \
291                          RxDone | RxStarted | RxEarlyWarn | RxOverflow | RxFull)
292 #define EpicNormalEvent (0x0000ffff & ~EpicNapiEvent)
293
294 static const u16 media2miictl[16] = {
295         0, 0x0C00, 0x0C00, 0x2000,  0x0100, 0x2100, 0, 0,
296         0, 0, 0, 0,  0, 0, 0, 0 };
297
298 /* The EPIC100 Rx and Tx buffer descriptors. */
299
300 struct epic_tx_desc {
301         u32 txstatus;
302         u32 bufaddr;
303         u32 buflength;
304         u32 next;
305 };
306
307 struct epic_rx_desc {
308         u32 rxstatus;
309         u32 bufaddr;
310         u32 buflength;
311         u32 next;
312 };
313
314 enum desc_status_bits {
315         DescOwn=0x8000,
316 };
317
318 #define PRIV_ALIGN      15      /* Required alignment mask */
319 struct epic_private {
320         struct epic_rx_desc *rx_ring;
321         struct epic_tx_desc *tx_ring;
322         /* The saved address of a sent-in-place packet/buffer, for skfree(). */
323         struct sk_buff* tx_skbuff[TX_RING_SIZE];
324         /* The addresses of receive-in-place skbuffs. */
325         struct sk_buff* rx_skbuff[RX_RING_SIZE];
326
327         dma_addr_t tx_ring_dma;
328         dma_addr_t rx_ring_dma;
329
330         /* Ring pointers. */
331         spinlock_t lock;                                /* Group with Tx control cache line. */
332         spinlock_t napi_lock;
333         unsigned int reschedule_in_poll;
334         unsigned int cur_tx, dirty_tx;
335
336         unsigned int cur_rx, dirty_rx;
337         u32 irq_mask;
338         unsigned int rx_buf_sz;                         /* Based on MTU+slack. */
339
340         struct pci_dev *pci_dev;                        /* PCI bus location. */
341         int chip_id, chip_flags;
342
343         struct net_device_stats stats;
344         struct timer_list timer;                        /* Media selection timer. */
345         int tx_threshold;
346         unsigned char mc_filter[8];
347         signed char phys[4];                            /* MII device addresses. */
348         u16 advertising;                                        /* NWay media advertisement */
349         int mii_phy_cnt;
350         struct mii_if_info mii;
351         unsigned int tx_full:1;                         /* The Tx queue is full. */
352         unsigned int default_port:4;            /* Last dev->if_port value. */
353 };
354
355 static int epic_open(struct net_device *dev);
356 static int read_eeprom(long ioaddr, int location);
357 static int mdio_read(struct net_device *dev, int phy_id, int location);
358 static void mdio_write(struct net_device *dev, int phy_id, int loc, int val);
359 static void epic_restart(struct net_device *dev);
360 static void epic_timer(unsigned long data);
361 static void epic_tx_timeout(struct net_device *dev);
362 static void epic_init_ring(struct net_device *dev);
363 static int epic_start_xmit(struct sk_buff *skb, struct net_device *dev);
364 static int epic_rx(struct net_device *dev, int budget);
365 static int epic_poll(struct net_device *dev, int *budget);
366 static irqreturn_t epic_interrupt(int irq, void *dev_instance, struct pt_regs *regs);
367 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
368 static struct ethtool_ops netdev_ethtool_ops;
369 static int epic_close(struct net_device *dev);
370 static struct net_device_stats *epic_get_stats(struct net_device *dev);
371 static void set_rx_mode(struct net_device *dev);
372
373
374
375 static int __devinit epic_init_one (struct pci_dev *pdev,
376                                     const struct pci_device_id *ent)
377 {
378         static int card_idx = -1;
379         long ioaddr;
380         int chip_idx = (int) ent->driver_data;
381         int irq;
382         struct net_device *dev;
383         struct epic_private *ep;
384         int i, ret, option = 0, duplex = 0;
385         void *ring_space;
386         dma_addr_t ring_dma;
387
388 /* when built into the kernel, we only print version if device is found */
389 #ifndef MODULE
390         static int printed_version;
391         if (!printed_version++)
392                 printk (KERN_INFO "%s" KERN_INFO "%s" KERN_INFO "%s",
393                         version, version2, version3);
394 #endif
395
396         card_idx++;
397
398         ret = pci_enable_device(pdev);
399         if (ret)
400                 goto out;
401         irq = pdev->irq;
402
403         if (pci_resource_len(pdev, 0) < pci_id_tbl[chip_idx].io_size) {
404                 printk (KERN_ERR "card %d: no PCI region space\n", card_idx);
405                 ret = -ENODEV;
406                 goto err_out_disable;
407         }
408
409         pci_set_master(pdev);
410
411         ret = pci_request_regions(pdev, DRV_NAME);
412         if (ret < 0)
413                 goto err_out_disable;
414
415         ret = -ENOMEM;
416
417         dev = alloc_etherdev(sizeof (*ep));
418         if (!dev) {
419                 printk (KERN_ERR "card %d: no memory for eth device\n", card_idx);
420                 goto err_out_free_res;
421         }
422         SET_MODULE_OWNER(dev);
423         SET_NETDEV_DEV(dev, &pdev->dev);
424
425 #ifdef USE_IO_OPS
426         ioaddr = pci_resource_start (pdev, 0);
427 #else
428         ioaddr = pci_resource_start (pdev, 1);
429         ioaddr = (long) ioremap (ioaddr, pci_resource_len (pdev, 1));
430         if (!ioaddr) {
431                 printk (KERN_ERR DRV_NAME " %d: ioremap failed\n", card_idx);
432                 goto err_out_free_netdev;
433         }
434 #endif
435
436         pci_set_drvdata(pdev, dev);
437         ep = dev->priv;
438         ep->mii.dev = dev;
439         ep->mii.mdio_read = mdio_read;
440         ep->mii.mdio_write = mdio_write;
441         ep->mii.phy_id_mask = 0x1f;
442         ep->mii.reg_num_mask = 0x1f;
443
444         ring_space = pci_alloc_consistent(pdev, TX_TOTAL_SIZE, &ring_dma);
445         if (!ring_space)
446                 goto err_out_iounmap;
447         ep->tx_ring = (struct epic_tx_desc *)ring_space;
448         ep->tx_ring_dma = ring_dma;
449
450         ring_space = pci_alloc_consistent(pdev, RX_TOTAL_SIZE, &ring_dma);
451         if (!ring_space)
452                 goto err_out_unmap_tx;
453         ep->rx_ring = (struct epic_rx_desc *)ring_space;
454         ep->rx_ring_dma = ring_dma;
455
456         if (dev->mem_start) {
457                 option = dev->mem_start;
458                 duplex = (dev->mem_start & 16) ? 1 : 0;
459         } else if (card_idx >= 0  &&  card_idx < MAX_UNITS) {
460                 if (options[card_idx] >= 0)
461                         option = options[card_idx];
462                 if (full_duplex[card_idx] >= 0)
463                         duplex = full_duplex[card_idx];
464         }
465
466         dev->base_addr = ioaddr;
467         dev->irq = irq;
468
469         spin_lock_init(&ep->lock);
470         spin_lock_init(&ep->napi_lock);
471         ep->reschedule_in_poll = 0;
472
473         /* Bring the chip out of low-power mode. */
474         outl(0x4200, ioaddr + GENCTL);
475         /* Magic?!  If we don't set this bit the MII interface won't work. */
476         /* This magic is documented in SMSC app note 7.15 */
477         for (i = 16; i > 0; i--)
478                 outl(0x0008, ioaddr + TEST1);
479
480         /* Turn on the MII transceiver. */
481         outl(0x12, ioaddr + MIICfg);
482         if (chip_idx == 1)
483                 outl((inl(ioaddr + NVCTL) & ~0x003C) | 0x4800, ioaddr + NVCTL);
484         outl(0x0200, ioaddr + GENCTL);
485
486         /* Note: the '175 does not have a serial EEPROM. */
487         for (i = 0; i < 3; i++)
488                 ((u16 *)dev->dev_addr)[i] = le16_to_cpu(inw(ioaddr + LAN0 + i*4));
489
490         if (debug > 2) {
491                 printk(KERN_DEBUG DRV_NAME "(%s): EEPROM contents\n",
492                        pci_name(pdev));
493                 for (i = 0; i < 64; i++)
494                         printk(" %4.4x%s", read_eeprom(ioaddr, i),
495                                    i % 16 == 15 ? "\n" : "");
496         }
497
498         ep->pci_dev = pdev;
499         ep->chip_id = chip_idx;
500         ep->chip_flags = pci_id_tbl[chip_idx].drv_flags;
501         ep->irq_mask =
502                 (ep->chip_flags & TYPE2_INTR ?  PCIBusErr175 : PCIBusErr170)
503                  | CntFull | TxUnderrun | EpicNapiEvent;
504
505         /* Find the connected MII xcvrs.
506            Doing this in open() would allow detecting external xcvrs later, but
507            takes much time and no cards have external MII. */
508         {
509                 int phy, phy_idx = 0;
510                 for (phy = 1; phy < 32 && phy_idx < sizeof(ep->phys); phy++) {
511                         int mii_status = mdio_read(dev, phy, MII_BMSR);
512                         if (mii_status != 0xffff  &&  mii_status != 0x0000) {
513                                 ep->phys[phy_idx++] = phy;
514                                 printk(KERN_INFO DRV_NAME "(%s): MII transceiver #%d control "
515                                            "%4.4x status %4.4x.\n",
516                                            pci_name(pdev), phy, mdio_read(dev, phy, 0), mii_status);
517                         }
518                 }
519                 ep->mii_phy_cnt = phy_idx;
520                 if (phy_idx != 0) {
521                         phy = ep->phys[0];
522                         ep->mii.advertising = mdio_read(dev, phy, MII_ADVERTISE);
523                         printk(KERN_INFO DRV_NAME "(%s): Autonegotiation advertising %4.4x link "
524                                    "partner %4.4x.\n",
525                                    pci_name(pdev), ep->mii.advertising, mdio_read(dev, phy, 5));
526                 } else if ( ! (ep->chip_flags & NO_MII)) {
527                         printk(KERN_WARNING DRV_NAME "(%s): ***WARNING***: No MII transceiver found!\n",
528                                pci_name(pdev));
529                         /* Use the known PHY address of the EPII. */
530                         ep->phys[0] = 3;
531                 }
532                 ep->mii.phy_id = ep->phys[0];
533         }
534
535         /* Turn off the MII xcvr (175 only!), leave the chip in low-power mode. */
536         if (ep->chip_flags & MII_PWRDWN)
537                 outl(inl(ioaddr + NVCTL) & ~0x483C, ioaddr + NVCTL);
538         outl(0x0008, ioaddr + GENCTL);
539
540         /* The lower four bits are the media type. */
541         if (duplex) {
542                 ep->mii.force_media = ep->mii.full_duplex = 1;
543                 printk(KERN_INFO DRV_NAME "(%s):  Forced full duplex operation requested.\n",
544                        pci_name(pdev));
545         }
546         dev->if_port = ep->default_port = option;
547
548         /* The Epic-specific entries in the device structure. */
549         dev->open = &epic_open;
550         dev->hard_start_xmit = &epic_start_xmit;
551         dev->stop = &epic_close;
552         dev->get_stats = &epic_get_stats;
553         dev->set_multicast_list = &set_rx_mode;
554         dev->do_ioctl = &netdev_ioctl;
555         dev->ethtool_ops = &netdev_ethtool_ops;
556         dev->watchdog_timeo = TX_TIMEOUT;
557         dev->tx_timeout = &epic_tx_timeout;
558         dev->poll = epic_poll;
559         dev->weight = 64;
560
561         ret = register_netdev(dev);
562         if (ret < 0)
563                 goto err_out_unmap_rx;
564
565         printk(KERN_INFO "%s: %s at %#lx, IRQ %d, ",
566                    dev->name, pci_id_tbl[chip_idx].name, ioaddr, dev->irq);
567         for (i = 0; i < 5; i++)
568                 printk("%2.2x:", dev->dev_addr[i]);
569         printk("%2.2x.\n", dev->dev_addr[i]);
570
571 out:
572         return ret;
573
574 err_out_unmap_rx:
575         pci_free_consistent(pdev, RX_TOTAL_SIZE, ep->rx_ring, ep->rx_ring_dma);
576 err_out_unmap_tx:
577         pci_free_consistent(pdev, TX_TOTAL_SIZE, ep->tx_ring, ep->tx_ring_dma);
578 err_out_iounmap:
579 #ifndef USE_IO_OPS
580         iounmap(ioaddr);
581 err_out_free_netdev:
582 #endif
583         free_netdev(dev);
584 err_out_free_res:
585         pci_release_regions(pdev);
586 err_out_disable:
587         pci_disable_device(pdev);
588         goto out;
589 }
590
591 /* Serial EEPROM section. */
592
593 /*  EEPROM_Ctrl bits. */
594 #define EE_SHIFT_CLK    0x04    /* EEPROM shift clock. */
595 #define EE_CS                   0x02    /* EEPROM chip select. */
596 #define EE_DATA_WRITE   0x08    /* EEPROM chip data in. */
597 #define EE_WRITE_0              0x01
598 #define EE_WRITE_1              0x09
599 #define EE_DATA_READ    0x10    /* EEPROM chip data out. */
600 #define EE_ENB                  (0x0001 | EE_CS)
601
602 /* Delay between EEPROM clock transitions.
603    This serves to flush the operation to the PCI bus.
604  */
605
606 #define eeprom_delay()  inl(ee_addr)
607
608 /* The EEPROM commands include the alway-set leading bit. */
609 #define EE_WRITE_CMD    (5 << 6)
610 #define EE_READ64_CMD   (6 << 6)
611 #define EE_READ256_CMD  (6 << 8)
612 #define EE_ERASE_CMD    (7 << 6)
613
614 static void epic_disable_int(struct net_device *dev, struct epic_private *ep)
615 {
616         long ioaddr = dev->base_addr;
617
618         outl(0x00000000, ioaddr + INTMASK);
619 }
620
621 static inline void __epic_pci_commit(long ioaddr)
622 {
623 #ifndef USE_IO_OPS
624         inl(ioaddr + INTMASK);
625 #endif
626 }
627
628 static inline void epic_napi_irq_off(struct net_device *dev,
629                                      struct epic_private *ep)
630 {
631         long ioaddr = dev->base_addr;
632
633         outl(ep->irq_mask & ~EpicNapiEvent, ioaddr + INTMASK);
634         __epic_pci_commit(ioaddr);
635 }
636
637 static inline void epic_napi_irq_on(struct net_device *dev,
638                                     struct epic_private *ep)
639 {
640         long ioaddr = dev->base_addr;
641
642         /* No need to commit possible posted write */
643         outl(ep->irq_mask | EpicNapiEvent, ioaddr + INTMASK);
644 }
645
646 static int __devinit read_eeprom(long ioaddr, int location)
647 {
648         int i;
649         int retval = 0;
650         long ee_addr = ioaddr + EECTL;
651         int read_cmd = location |
652                 (inl(ee_addr) & 0x40 ? EE_READ64_CMD : EE_READ256_CMD);
653
654         outl(EE_ENB & ~EE_CS, ee_addr);
655         outl(EE_ENB, ee_addr);
656
657         /* Shift the read command bits out. */
658         for (i = 12; i >= 0; i--) {
659                 short dataval = (read_cmd & (1 << i)) ? EE_WRITE_1 : EE_WRITE_0;
660                 outl(EE_ENB | dataval, ee_addr);
661                 eeprom_delay();
662                 outl(EE_ENB | dataval | EE_SHIFT_CLK, ee_addr);
663                 eeprom_delay();
664         }
665         outl(EE_ENB, ee_addr);
666
667         for (i = 16; i > 0; i--) {
668                 outl(EE_ENB | EE_SHIFT_CLK, ee_addr);
669                 eeprom_delay();
670                 retval = (retval << 1) | ((inl(ee_addr) & EE_DATA_READ) ? 1 : 0);
671                 outl(EE_ENB, ee_addr);
672                 eeprom_delay();
673         }
674
675         /* Terminate the EEPROM access. */
676         outl(EE_ENB & ~EE_CS, ee_addr);
677         return retval;
678 }
679
680 #define MII_READOP              1
681 #define MII_WRITEOP             2
682 static int mdio_read(struct net_device *dev, int phy_id, int location)
683 {
684         long ioaddr = dev->base_addr;
685         int read_cmd = (phy_id << 9) | (location << 4) | MII_READOP;
686         int i;
687
688         outl(read_cmd, ioaddr + MIICtrl);
689         /* Typical operation takes 25 loops. */
690         for (i = 400; i > 0; i--) {
691                 barrier();
692                 if ((inl(ioaddr + MIICtrl) & MII_READOP) == 0) {
693                         /* Work around read failure bug. */
694                         if (phy_id == 1 && location < 6
695                                 && inw(ioaddr + MIIData) == 0xffff) {
696                                 outl(read_cmd, ioaddr + MIICtrl);
697                                 continue;
698                         }
699                         return inw(ioaddr + MIIData);
700                 }
701         }
702         return 0xffff;
703 }
704
705 static void mdio_write(struct net_device *dev, int phy_id, int loc, int value)
706 {
707         long ioaddr = dev->base_addr;
708         int i;
709
710         outw(value, ioaddr + MIIData);
711         outl((phy_id << 9) | (loc << 4) | MII_WRITEOP, ioaddr + MIICtrl);
712         for (i = 10000; i > 0; i--) {
713                 barrier();
714                 if ((inl(ioaddr + MIICtrl) & MII_WRITEOP) == 0)
715                         break;
716         }
717         return;
718 }
719
720
721 static int epic_open(struct net_device *dev)
722 {
723         struct epic_private *ep = dev->priv;
724         long ioaddr = dev->base_addr;
725         int i;
726         int retval;
727
728         /* Soft reset the chip. */
729         outl(0x4001, ioaddr + GENCTL);
730
731         if ((retval = request_irq(dev->irq, &epic_interrupt, SA_SHIRQ, dev->name, dev)))
732                 return retval;
733
734         epic_init_ring(dev);
735
736         outl(0x4000, ioaddr + GENCTL);
737         /* This magic is documented in SMSC app note 7.15 */
738         for (i = 16; i > 0; i--)
739                 outl(0x0008, ioaddr + TEST1);
740
741         /* Pull the chip out of low-power mode, enable interrupts, and set for
742            PCI read multiple.  The MIIcfg setting and strange write order are
743            required by the details of which bits are reset and the transceiver
744            wiring on the Ositech CardBus card.
745         */
746 #if 0
747         outl(dev->if_port == 1 ? 0x13 : 0x12, ioaddr + MIICfg);
748 #endif
749         if (ep->chip_flags & MII_PWRDWN)
750                 outl((inl(ioaddr + NVCTL) & ~0x003C) | 0x4800, ioaddr + NVCTL);
751
752 #if defined(__powerpc__) || defined(__sparc__)          /* Big endian */
753         outl(0x4432 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
754         inl(ioaddr + GENCTL);
755         outl(0x0432 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
756 #else
757         outl(0x4412 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
758         inl(ioaddr + GENCTL);
759         outl(0x0412 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
760 #endif
761
762         udelay(20); /* Looks like EPII needs that if you want reliable RX init. FIXME: pci posting bug? */
763
764         for (i = 0; i < 3; i++)
765                 outl(cpu_to_le16(((u16*)dev->dev_addr)[i]), ioaddr + LAN0 + i*4);
766
767         ep->tx_threshold = TX_FIFO_THRESH;
768         outl(ep->tx_threshold, ioaddr + TxThresh);
769
770         if (media2miictl[dev->if_port & 15]) {
771                 if (ep->mii_phy_cnt)
772                         mdio_write(dev, ep->phys[0], MII_BMCR, media2miictl[dev->if_port&15]);
773                 if (dev->if_port == 1) {
774                         if (debug > 1)
775                                 printk(KERN_INFO "%s: Using the 10base2 transceiver, MII "
776                                            "status %4.4x.\n",
777                                            dev->name, mdio_read(dev, ep->phys[0], MII_BMSR));
778                 }
779         } else {
780                 int mii_lpa = mdio_read(dev, ep->phys[0], MII_LPA);
781                 if (mii_lpa != 0xffff) {
782                         if ((mii_lpa & LPA_100FULL) || (mii_lpa & 0x01C0) == LPA_10FULL)
783                                 ep->mii.full_duplex = 1;
784                         else if (! (mii_lpa & LPA_LPACK))
785                                 mdio_write(dev, ep->phys[0], MII_BMCR, BMCR_ANENABLE|BMCR_ANRESTART);
786                         if (debug > 1)
787                                 printk(KERN_INFO "%s: Setting %s-duplex based on MII xcvr %d"
788                                            " register read of %4.4x.\n", dev->name,
789                                            ep->mii.full_duplex ? "full" : "half",
790                                            ep->phys[0], mii_lpa);
791                 }
792         }
793
794         outl(ep->mii.full_duplex ? 0x7F : 0x79, ioaddr + TxCtrl);
795         outl(ep->rx_ring_dma, ioaddr + PRxCDAR);
796         outl(ep->tx_ring_dma, ioaddr + PTxCDAR);
797
798         /* Start the chip's Rx process. */
799         set_rx_mode(dev);
800         outl(StartRx | RxQueued, ioaddr + COMMAND);
801
802         netif_start_queue(dev);
803
804         /* Enable interrupts by setting the interrupt mask. */
805         outl((ep->chip_flags & TYPE2_INTR ? PCIBusErr175 : PCIBusErr170)
806                  | CntFull | TxUnderrun
807                  | RxError | RxHeader | EpicNapiEvent, ioaddr + INTMASK);
808
809         if (debug > 1)
810                 printk(KERN_DEBUG "%s: epic_open() ioaddr %lx IRQ %d status %4.4x "
811                            "%s-duplex.\n",
812                            dev->name, ioaddr, dev->irq, (int)inl(ioaddr + GENCTL),
813                            ep->mii.full_duplex ? "full" : "half");
814
815         /* Set the timer to switch to check for link beat and perhaps switch
816            to an alternate media type. */
817         init_timer(&ep->timer);
818         ep->timer.expires = jiffies + 3*HZ;
819         ep->timer.data = (unsigned long)dev;
820         ep->timer.function = &epic_timer;                               /* timer handler */
821         add_timer(&ep->timer);
822
823         return 0;
824 }
825
826 /* Reset the chip to recover from a PCI transaction error.
827    This may occur at interrupt time. */
828 static void epic_pause(struct net_device *dev)
829 {
830         long ioaddr = dev->base_addr;
831         struct epic_private *ep = dev->priv;
832
833         netif_stop_queue (dev);
834
835         /* Disable interrupts by clearing the interrupt mask. */
836         outl(0x00000000, ioaddr + INTMASK);
837         /* Stop the chip's Tx and Rx DMA processes. */
838         outw(StopRx | StopTxDMA | StopRxDMA, ioaddr + COMMAND);
839
840         /* Update the error counts. */
841         if (inw(ioaddr + COMMAND) != 0xffff) {
842                 ep->stats.rx_missed_errors += inb(ioaddr + MPCNT);
843                 ep->stats.rx_frame_errors += inb(ioaddr + ALICNT);
844                 ep->stats.rx_crc_errors += inb(ioaddr + CRCCNT);
845         }
846
847         /* Remove the packets on the Rx queue. */
848         epic_rx(dev, RX_RING_SIZE);
849 }
850
851 static void epic_restart(struct net_device *dev)
852 {
853         long ioaddr = dev->base_addr;
854         struct epic_private *ep = dev->priv;
855         int i;
856
857         /* Soft reset the chip. */
858         outl(0x4001, ioaddr + GENCTL);
859
860         printk(KERN_DEBUG "%s: Restarting the EPIC chip, Rx %d/%d Tx %d/%d.\n",
861                    dev->name, ep->cur_rx, ep->dirty_rx, ep->dirty_tx, ep->cur_tx);
862         udelay(1);
863
864         /* This magic is documented in SMSC app note 7.15 */
865         for (i = 16; i > 0; i--)
866                 outl(0x0008, ioaddr + TEST1);
867
868 #if defined(__powerpc__) || defined(__sparc__)          /* Big endian */
869         outl(0x0432 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
870 #else
871         outl(0x0412 | (RX_FIFO_THRESH<<8), ioaddr + GENCTL);
872 #endif
873         outl(dev->if_port == 1 ? 0x13 : 0x12, ioaddr + MIICfg);
874         if (ep->chip_flags & MII_PWRDWN)
875                 outl((inl(ioaddr + NVCTL) & ~0x003C) | 0x4800, ioaddr + NVCTL);
876
877         for (i = 0; i < 3; i++)
878                 outl(cpu_to_le16(((u16*)dev->dev_addr)[i]), ioaddr + LAN0 + i*4);
879
880         ep->tx_threshold = TX_FIFO_THRESH;
881         outl(ep->tx_threshold, ioaddr + TxThresh);
882         outl(ep->mii.full_duplex ? 0x7F : 0x79, ioaddr + TxCtrl);
883         outl(ep->rx_ring_dma + (ep->cur_rx%RX_RING_SIZE)*
884                 sizeof(struct epic_rx_desc), ioaddr + PRxCDAR);
885         outl(ep->tx_ring_dma + (ep->dirty_tx%TX_RING_SIZE)*
886                  sizeof(struct epic_tx_desc), ioaddr + PTxCDAR);
887
888         /* Start the chip's Rx process. */
889         set_rx_mode(dev);
890         outl(StartRx | RxQueued, ioaddr + COMMAND);
891
892         /* Enable interrupts by setting the interrupt mask. */
893         outl((ep->chip_flags & TYPE2_INTR ? PCIBusErr175 : PCIBusErr170)
894                  | CntFull | TxUnderrun
895                  | RxError | RxHeader | EpicNapiEvent, ioaddr + INTMASK);
896
897         printk(KERN_DEBUG "%s: epic_restart() done, cmd status %4.4x, ctl %4.4x"
898                    " interrupt %4.4x.\n",
899                    dev->name, (int)inl(ioaddr + COMMAND), (int)inl(ioaddr + GENCTL),
900                    (int)inl(ioaddr + INTSTAT));
901         return;
902 }
903
904 static void check_media(struct net_device *dev)
905 {
906         struct epic_private *ep = dev->priv;
907         long ioaddr = dev->base_addr;
908         int mii_lpa = ep->mii_phy_cnt ? mdio_read(dev, ep->phys[0], MII_LPA) : 0;
909         int negotiated = mii_lpa & ep->mii.advertising;
910         int duplex = (negotiated & 0x0100) || (negotiated & 0x01C0) == 0x0040;
911
912         if (ep->mii.force_media)
913                 return;
914         if (mii_lpa == 0xffff)          /* Bogus read */
915                 return;
916         if (ep->mii.full_duplex != duplex) {
917                 ep->mii.full_duplex = duplex;
918                 printk(KERN_INFO "%s: Setting %s-duplex based on MII #%d link"
919                            " partner capability of %4.4x.\n", dev->name,
920                            ep->mii.full_duplex ? "full" : "half", ep->phys[0], mii_lpa);
921                 outl(ep->mii.full_duplex ? 0x7F : 0x79, ioaddr + TxCtrl);
922         }
923 }
924
925 static void epic_timer(unsigned long data)
926 {
927         struct net_device *dev = (struct net_device *)data;
928         struct epic_private *ep = dev->priv;
929         long ioaddr = dev->base_addr;
930         int next_tick = 5*HZ;
931
932         if (debug > 3) {
933                 printk(KERN_DEBUG "%s: Media monitor tick, Tx status %8.8x.\n",
934                            dev->name, (int)inl(ioaddr + TxSTAT));
935                 printk(KERN_DEBUG "%s: Other registers are IntMask %4.4x "
936                            "IntStatus %4.4x RxStatus %4.4x.\n",
937                            dev->name, (int)inl(ioaddr + INTMASK),
938                            (int)inl(ioaddr + INTSTAT), (int)inl(ioaddr + RxSTAT));
939         }
940
941         check_media(dev);
942
943         ep->timer.expires = jiffies + next_tick;
944         add_timer(&ep->timer);
945 }
946
947 static void epic_tx_timeout(struct net_device *dev)
948 {
949         struct epic_private *ep = dev->priv;
950         long ioaddr = dev->base_addr;
951
952         if (debug > 0) {
953                 printk(KERN_WARNING "%s: Transmit timeout using MII device, "
954                            "Tx status %4.4x.\n",
955                            dev->name, (int)inw(ioaddr + TxSTAT));
956                 if (debug > 1) {
957                         printk(KERN_DEBUG "%s: Tx indices: dirty_tx %d, cur_tx %d.\n",
958                                    dev->name, ep->dirty_tx, ep->cur_tx);
959                 }
960         }
961         if (inw(ioaddr + TxSTAT) & 0x10) {              /* Tx FIFO underflow. */
962                 ep->stats.tx_fifo_errors++;
963                 outl(RestartTx, ioaddr + COMMAND);
964         } else {
965                 epic_restart(dev);
966                 outl(TxQueued, dev->base_addr + COMMAND);
967         }
968
969         dev->trans_start = jiffies;
970         ep->stats.tx_errors++;
971         if (!ep->tx_full)
972                 netif_wake_queue(dev);
973 }
974
975 /* Initialize the Rx and Tx rings, along with various 'dev' bits. */
976 static void epic_init_ring(struct net_device *dev)
977 {
978         struct epic_private *ep = dev->priv;
979         int i;
980
981         ep->tx_full = 0;
982         ep->dirty_tx = ep->cur_tx = 0;
983         ep->cur_rx = ep->dirty_rx = 0;
984         ep->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
985
986         /* Initialize all Rx descriptors. */
987         for (i = 0; i < RX_RING_SIZE; i++) {
988                 ep->rx_ring[i].rxstatus = 0;
989                 ep->rx_ring[i].buflength = cpu_to_le32(ep->rx_buf_sz);
990                 ep->rx_ring[i].next = ep->rx_ring_dma +
991                                       (i+1)*sizeof(struct epic_rx_desc);
992                 ep->rx_skbuff[i] = NULL;
993         }
994         /* Mark the last entry as wrapping the ring. */
995         ep->rx_ring[i-1].next = ep->rx_ring_dma;
996
997         /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
998         for (i = 0; i < RX_RING_SIZE; i++) {
999                 struct sk_buff *skb = dev_alloc_skb(ep->rx_buf_sz);
1000                 ep->rx_skbuff[i] = skb;
1001                 if (skb == NULL)
1002                         break;
1003                 skb->dev = dev;                 /* Mark as being used by this device. */
1004                 skb_reserve(skb, 2);    /* 16 byte align the IP header. */
1005                 ep->rx_ring[i].bufaddr = pci_map_single(ep->pci_dev,
1006                         skb->data, ep->rx_buf_sz, PCI_DMA_FROMDEVICE);
1007                 ep->rx_ring[i].rxstatus = cpu_to_le32(DescOwn);
1008         }
1009         ep->dirty_rx = (unsigned int)(i - RX_RING_SIZE);
1010
1011         /* The Tx buffer descriptor is filled in as needed, but we
1012            do need to clear the ownership bit. */
1013         for (i = 0; i < TX_RING_SIZE; i++) {
1014                 ep->tx_skbuff[i] = NULL;
1015                 ep->tx_ring[i].txstatus = 0x0000;
1016                 ep->tx_ring[i].next = ep->tx_ring_dma +
1017                         (i+1)*sizeof(struct epic_tx_desc);
1018         }
1019         ep->tx_ring[i-1].next = ep->tx_ring_dma;
1020         return;
1021 }
1022
1023 static int epic_start_xmit(struct sk_buff *skb, struct net_device *dev)
1024 {
1025         struct epic_private *ep = dev->priv;
1026         int entry, free_count;
1027         u32 ctrl_word;
1028         unsigned long flags;
1029
1030         if (skb_padto(skb, ETH_ZLEN))
1031                 return 0;
1032
1033         /* Caution: the write order is important here, set the field with the
1034            "ownership" bit last. */
1035
1036         /* Calculate the next Tx descriptor entry. */
1037         spin_lock_irqsave(&ep->lock, flags);
1038         free_count = ep->cur_tx - ep->dirty_tx;
1039         entry = ep->cur_tx % TX_RING_SIZE;
1040
1041         ep->tx_skbuff[entry] = skb;
1042         ep->tx_ring[entry].bufaddr = pci_map_single(ep->pci_dev, skb->data,
1043                                                     skb->len, PCI_DMA_TODEVICE);
1044         if (free_count < TX_QUEUE_LEN/2) {/* Typical path */
1045                 ctrl_word = cpu_to_le32(0x100000); /* No interrupt */
1046         } else if (free_count == TX_QUEUE_LEN/2) {
1047                 ctrl_word = cpu_to_le32(0x140000); /* Tx-done intr. */
1048         } else if (free_count < TX_QUEUE_LEN - 1) {
1049                 ctrl_word = cpu_to_le32(0x100000); /* No Tx-done intr. */
1050         } else {
1051                 /* Leave room for an additional entry. */
1052                 ctrl_word = cpu_to_le32(0x140000); /* Tx-done intr. */
1053                 ep->tx_full = 1;
1054         }
1055         ep->tx_ring[entry].buflength = ctrl_word | cpu_to_le32(skb->len);
1056         ep->tx_ring[entry].txstatus =
1057                 ((skb->len >= ETH_ZLEN ? skb->len : ETH_ZLEN) << 16)
1058                 | cpu_to_le32(DescOwn);
1059
1060         ep->cur_tx++;
1061         if (ep->tx_full)
1062                 netif_stop_queue(dev);
1063
1064         spin_unlock_irqrestore(&ep->lock, flags);
1065         /* Trigger an immediate transmit demand. */
1066         outl(TxQueued, dev->base_addr + COMMAND);
1067
1068         dev->trans_start = jiffies;
1069         if (debug > 4)
1070                 printk(KERN_DEBUG "%s: Queued Tx packet size %d to slot %d, "
1071                            "flag %2.2x Tx status %8.8x.\n",
1072                            dev->name, (int)skb->len, entry, ctrl_word,
1073                            (int)inl(dev->base_addr + TxSTAT));
1074
1075         return 0;
1076 }
1077
1078 static void epic_tx_error(struct net_device *dev, struct epic_private *ep,
1079                           int status)
1080 {
1081         struct net_device_stats *stats = &ep->stats;
1082
1083 #ifndef final_version
1084         /* There was an major error, log it. */
1085         if (debug > 1)
1086                 printk(KERN_DEBUG "%s: Transmit error, Tx status %8.8x.\n",
1087                        dev->name, status);
1088 #endif
1089         stats->tx_errors++;
1090         if (status & 0x1050)
1091                 stats->tx_aborted_errors++;
1092         if (status & 0x0008)
1093                 stats->tx_carrier_errors++;
1094         if (status & 0x0040)
1095                 stats->tx_window_errors++;
1096         if (status & 0x0010)
1097                 stats->tx_fifo_errors++;
1098 }
1099
1100 static void epic_tx(struct net_device *dev, struct epic_private *ep)
1101 {
1102         unsigned int dirty_tx, cur_tx;
1103
1104         /*
1105          * Note: if this lock becomes a problem we can narrow the locked
1106          * region at the cost of occasionally grabbing the lock more times.
1107          */
1108         cur_tx = ep->cur_tx;
1109         for (dirty_tx = ep->dirty_tx; cur_tx - dirty_tx > 0; dirty_tx++) {
1110                 struct sk_buff *skb;
1111                 int entry = dirty_tx % TX_RING_SIZE;
1112                 int txstatus = le32_to_cpu(ep->tx_ring[entry].txstatus);
1113
1114                 if (txstatus & DescOwn)
1115                         break;  /* It still hasn't been Txed */
1116
1117                 if (likely(txstatus & 0x0001)) {
1118                         ep->stats.collisions += (txstatus >> 8) & 15;
1119                         ep->stats.tx_packets++;
1120                         ep->stats.tx_bytes += ep->tx_skbuff[entry]->len;
1121                 } else
1122                         epic_tx_error(dev, ep, txstatus);
1123
1124                 /* Free the original skb. */
1125                 skb = ep->tx_skbuff[entry];
1126                 pci_unmap_single(ep->pci_dev, ep->tx_ring[entry].bufaddr,
1127                                  skb->len, PCI_DMA_TODEVICE);
1128                 dev_kfree_skb_irq(skb);
1129                 ep->tx_skbuff[entry] = NULL;
1130         }
1131
1132 #ifndef final_version
1133         if (cur_tx - dirty_tx > TX_RING_SIZE) {
1134                 printk(KERN_WARNING
1135                        "%s: Out-of-sync dirty pointer, %d vs. %d, full=%d.\n",
1136                        dev->name, dirty_tx, cur_tx, ep->tx_full);
1137                 dirty_tx += TX_RING_SIZE;
1138         }
1139 #endif
1140         ep->dirty_tx = dirty_tx;
1141         if (ep->tx_full && cur_tx - dirty_tx < TX_QUEUE_LEN - 4) {
1142                 /* The ring is no longer full, allow new TX entries. */
1143                 ep->tx_full = 0;
1144                 netif_wake_queue(dev);
1145         }
1146 }
1147
1148 /* The interrupt handler does all of the Rx thread work and cleans up
1149    after the Tx thread. */
1150 static irqreturn_t epic_interrupt(int irq, void *dev_instance, struct pt_regs *regs)
1151 {
1152         struct net_device *dev = dev_instance;
1153         struct epic_private *ep = dev->priv;
1154         long ioaddr = dev->base_addr;
1155         unsigned int handled = 0;
1156         int status;
1157
1158         status = inl(ioaddr + INTSTAT);
1159         /* Acknowledge all of the current interrupt sources ASAP. */
1160         outl(status & EpicNormalEvent, ioaddr + INTSTAT);
1161
1162         if (debug > 4) {
1163                 printk(KERN_DEBUG "%s: Interrupt, status=%#8.8x new "
1164                                    "intstat=%#8.8x.\n", dev->name, status,
1165                                    (int)inl(ioaddr + INTSTAT));
1166         }
1167
1168         if ((status & IntrSummary) == 0)
1169                 goto out;
1170
1171         handled = 1;
1172
1173         if ((status & EpicNapiEvent) && !ep->reschedule_in_poll) {
1174                 spin_lock(&ep->napi_lock);
1175                 if (netif_rx_schedule_prep(dev)) {
1176                         epic_napi_irq_off(dev, ep);
1177                         __netif_rx_schedule(dev);
1178                 } else
1179                         ep->reschedule_in_poll++;
1180                 spin_unlock(&ep->napi_lock);
1181         }
1182         status &= ~EpicNapiEvent;
1183
1184         /* Check uncommon events all at once. */
1185         if (status & (CntFull | TxUnderrun | PCIBusErr170 | PCIBusErr175)) {
1186                 if (status == EpicRemoved)
1187                         goto out;
1188
1189                 /* Always update the error counts to avoid overhead later. */
1190                 ep->stats.rx_missed_errors += inb(ioaddr + MPCNT);
1191                 ep->stats.rx_frame_errors += inb(ioaddr + ALICNT);
1192                 ep->stats.rx_crc_errors += inb(ioaddr + CRCCNT);
1193
1194                 if (status & TxUnderrun) { /* Tx FIFO underflow. */
1195                         ep->stats.tx_fifo_errors++;
1196                         outl(ep->tx_threshold += 128, ioaddr + TxThresh);
1197                         /* Restart the transmit process. */
1198                         outl(RestartTx, ioaddr + COMMAND);
1199                 }
1200                 if (status & PCIBusErr170) {
1201                         printk(KERN_ERR "%s: PCI Bus Error! status %4.4x.\n",
1202                                          dev->name, status);
1203                         epic_pause(dev);
1204                         epic_restart(dev);
1205                 }
1206                 /* Clear all error sources. */
1207                 outl(status & 0x7f18, ioaddr + INTSTAT);
1208         }
1209
1210 out:
1211         if (debug > 3) {
1212                 printk(KERN_DEBUG "%s: exit interrupt, intr_status=%#4.4x.\n",
1213                                    dev->name, status);
1214         }
1215
1216         return IRQ_RETVAL(handled);
1217 }
1218
1219 static int epic_rx(struct net_device *dev, int budget)
1220 {
1221         struct epic_private *ep = dev->priv;
1222         int entry = ep->cur_rx % RX_RING_SIZE;
1223         int rx_work_limit = ep->dirty_rx + RX_RING_SIZE - ep->cur_rx;
1224         int work_done = 0;
1225
1226         if (debug > 4)
1227                 printk(KERN_DEBUG " In epic_rx(), entry %d %8.8x.\n", entry,
1228                            ep->rx_ring[entry].rxstatus);
1229
1230         if (rx_work_limit > budget)
1231                 rx_work_limit = budget;
1232
1233         /* If we own the next entry, it's a new packet. Send it up. */
1234         while ((ep->rx_ring[entry].rxstatus & cpu_to_le32(DescOwn)) == 0) {
1235                 int status = le32_to_cpu(ep->rx_ring[entry].rxstatus);
1236
1237                 if (debug > 4)
1238                         printk(KERN_DEBUG "  epic_rx() status was %8.8x.\n", status);
1239                 if (--rx_work_limit < 0)
1240                         break;
1241                 if (status & 0x2006) {
1242                         if (debug > 2)
1243                                 printk(KERN_DEBUG "%s: epic_rx() error status was %8.8x.\n",
1244                                            dev->name, status);
1245                         if (status & 0x2000) {
1246                                 printk(KERN_WARNING "%s: Oversized Ethernet frame spanned "
1247                                            "multiple buffers, status %4.4x!\n", dev->name, status);
1248                                 ep->stats.rx_length_errors++;
1249                         } else if (status & 0x0006)
1250                                 /* Rx Frame errors are counted in hardware. */
1251                                 ep->stats.rx_errors++;
1252                 } else {
1253                         /* Malloc up new buffer, compatible with net-2e. */
1254                         /* Omit the four octet CRC from the length. */
1255                         short pkt_len = (status >> 16) - 4;
1256                         struct sk_buff *skb;
1257
1258                         if (pkt_len > PKT_BUF_SZ - 4) {
1259                                 printk(KERN_ERR "%s: Oversized Ethernet frame, status %x "
1260                                            "%d bytes.\n",
1261                                            dev->name, status, pkt_len);
1262                                 pkt_len = 1514;
1263                         }
1264                         /* Check if the packet is long enough to accept without copying
1265                            to a minimally-sized skbuff. */
1266                         if (pkt_len < rx_copybreak
1267                                 && (skb = dev_alloc_skb(pkt_len + 2)) != NULL) {
1268                                 skb->dev = dev;
1269                                 skb_reserve(skb, 2);    /* 16 byte align the IP header */
1270                                 pci_dma_sync_single_for_cpu(ep->pci_dev,
1271                                                             ep->rx_ring[entry].bufaddr,
1272                                                             ep->rx_buf_sz,
1273                                                             PCI_DMA_FROMDEVICE);
1274                                 eth_copy_and_sum(skb, ep->rx_skbuff[entry]->data, pkt_len, 0);
1275                                 skb_put(skb, pkt_len);
1276                                 pci_dma_sync_single_for_device(ep->pci_dev,
1277                                                                ep->rx_ring[entry].bufaddr,
1278                                                                ep->rx_buf_sz,
1279                                                                PCI_DMA_FROMDEVICE);
1280                         } else {
1281                                 pci_unmap_single(ep->pci_dev,
1282                                         ep->rx_ring[entry].bufaddr,
1283                                         ep->rx_buf_sz, PCI_DMA_FROMDEVICE);
1284                                 skb_put(skb = ep->rx_skbuff[entry], pkt_len);
1285                                 ep->rx_skbuff[entry] = NULL;
1286                         }
1287                         skb->protocol = eth_type_trans(skb, dev);
1288                         netif_receive_skb(skb);
1289                         dev->last_rx = jiffies;
1290                         ep->stats.rx_packets++;
1291                         ep->stats.rx_bytes += pkt_len;
1292                 }
1293                 work_done++;
1294                 entry = (++ep->cur_rx) % RX_RING_SIZE;
1295         }
1296
1297         /* Refill the Rx ring buffers. */
1298         for (; ep->cur_rx - ep->dirty_rx > 0; ep->dirty_rx++) {
1299                 entry = ep->dirty_rx % RX_RING_SIZE;
1300                 if (ep->rx_skbuff[entry] == NULL) {
1301                         struct sk_buff *skb;
1302                         skb = ep->rx_skbuff[entry] = dev_alloc_skb(ep->rx_buf_sz);
1303                         if (skb == NULL)
1304                                 break;
1305                         skb->dev = dev;                 /* Mark as being used by this device. */
1306                         skb_reserve(skb, 2);    /* Align IP on 16 byte boundaries */
1307                         ep->rx_ring[entry].bufaddr = pci_map_single(ep->pci_dev,
1308                                 skb->data, ep->rx_buf_sz, PCI_DMA_FROMDEVICE);
1309                         work_done++;
1310                 }
1311                 ep->rx_ring[entry].rxstatus = cpu_to_le32(DescOwn);
1312         }
1313         return work_done;
1314 }
1315
1316 static void epic_rx_err(struct net_device *dev, struct epic_private *ep)
1317 {
1318         long ioaddr = dev->base_addr;
1319         int status;
1320
1321         status = inl(ioaddr + INTSTAT);
1322
1323         if (status == EpicRemoved)
1324                 return;
1325         if (status & RxOverflow)        /* Missed a Rx frame. */
1326                 ep->stats.rx_errors++;
1327         if (status & (RxOverflow | RxFull))
1328                 outw(RxQueued, ioaddr + COMMAND);
1329 }
1330
1331 static int epic_poll(struct net_device *dev, int *budget)
1332 {
1333         struct epic_private *ep = dev->priv;
1334         int work_done = 0, orig_budget;
1335         long ioaddr = dev->base_addr;
1336
1337         orig_budget = (*budget > dev->quota) ? dev->quota : *budget;
1338
1339 rx_action:
1340
1341         epic_tx(dev, ep);
1342
1343         work_done += epic_rx(dev, *budget);
1344
1345         epic_rx_err(dev, ep);
1346
1347         *budget -= work_done;
1348         dev->quota -= work_done;
1349
1350         if (netif_running(dev) && (work_done < orig_budget)) {
1351                 unsigned long flags;
1352                 int more;
1353
1354                 /* A bit baroque but it avoids a (space hungry) spin_unlock */
1355
1356                 spin_lock_irqsave(&ep->napi_lock, flags);
1357
1358                 more = ep->reschedule_in_poll;
1359                 if (!more) {
1360                         __netif_rx_complete(dev);
1361                         outl(EpicNapiEvent, ioaddr + INTSTAT);
1362                         epic_napi_irq_on(dev, ep);
1363                 } else
1364                         ep->reschedule_in_poll--;
1365
1366                 spin_unlock_irqrestore(&ep->napi_lock, flags);
1367
1368                 if (more)
1369                         goto rx_action;
1370         }
1371
1372         return (work_done >= orig_budget);
1373 }
1374
1375 static int epic_close(struct net_device *dev)
1376 {
1377         long ioaddr = dev->base_addr;
1378         struct epic_private *ep = dev->priv;
1379         struct sk_buff *skb;
1380         int i;
1381
1382         netif_stop_queue(dev);
1383
1384         if (debug > 1)
1385                 printk(KERN_DEBUG "%s: Shutting down ethercard, status was %2.2x.\n",
1386                            dev->name, (int)inl(ioaddr + INTSTAT));
1387
1388         del_timer_sync(&ep->timer);
1389
1390         epic_disable_int(dev, ep);
1391
1392         free_irq(dev->irq, dev);
1393
1394         epic_pause(dev);
1395
1396         /* Free all the skbuffs in the Rx queue. */
1397         for (i = 0; i < RX_RING_SIZE; i++) {
1398                 skb = ep->rx_skbuff[i];
1399                 ep->rx_skbuff[i] = NULL;
1400                 ep->rx_ring[i].rxstatus = 0;            /* Not owned by Epic chip. */
1401                 ep->rx_ring[i].buflength = 0;
1402                 if (skb) {
1403                         pci_unmap_single(ep->pci_dev, ep->rx_ring[i].bufaddr,
1404                                          ep->rx_buf_sz, PCI_DMA_FROMDEVICE);
1405                         dev_kfree_skb(skb);
1406                 }
1407                 ep->rx_ring[i].bufaddr = 0xBADF00D0; /* An invalid address. */
1408         }
1409         for (i = 0; i < TX_RING_SIZE; i++) {
1410                 skb = ep->tx_skbuff[i];
1411                 ep->tx_skbuff[i] = NULL;
1412                 if (!skb)
1413                         continue;
1414                 pci_unmap_single(ep->pci_dev, ep->tx_ring[i].bufaddr,
1415                                  skb->len, PCI_DMA_TODEVICE);
1416                 dev_kfree_skb(skb);
1417         }
1418
1419         /* Green! Leave the chip in low-power mode. */
1420         outl(0x0008, ioaddr + GENCTL);
1421
1422         return 0;
1423 }
1424
1425 static struct net_device_stats *epic_get_stats(struct net_device *dev)
1426 {
1427         struct epic_private *ep = dev->priv;
1428         long ioaddr = dev->base_addr;
1429
1430         if (netif_running(dev)) {
1431                 /* Update the error counts. */
1432                 ep->stats.rx_missed_errors += inb(ioaddr + MPCNT);
1433                 ep->stats.rx_frame_errors += inb(ioaddr + ALICNT);
1434                 ep->stats.rx_crc_errors += inb(ioaddr + CRCCNT);
1435         }
1436
1437         return &ep->stats;
1438 }
1439
1440 /* Set or clear the multicast filter for this adaptor.
1441    Note that we only use exclusion around actually queueing the
1442    new frame, not around filling ep->setup_frame.  This is non-deterministic
1443    when re-entered but still correct. */
1444
1445 static void set_rx_mode(struct net_device *dev)
1446 {
1447         long ioaddr = dev->base_addr;
1448         struct epic_private *ep = dev->priv;
1449         unsigned char mc_filter[8];              /* Multicast hash filter */
1450         int i;
1451
1452         if (dev->flags & IFF_PROMISC) {                 /* Set promiscuous. */
1453                 outl(0x002C, ioaddr + RxCtrl);
1454                 /* Unconditionally log net taps. */
1455                 printk(KERN_INFO "%s: Promiscuous mode enabled.\n", dev->name);
1456                 memset(mc_filter, 0xff, sizeof(mc_filter));
1457         } else if ((dev->mc_count > 0)  ||  (dev->flags & IFF_ALLMULTI)) {
1458                 /* There is apparently a chip bug, so the multicast filter
1459                    is never enabled. */
1460                 /* Too many to filter perfectly -- accept all multicasts. */
1461                 memset(mc_filter, 0xff, sizeof(mc_filter));
1462                 outl(0x000C, ioaddr + RxCtrl);
1463         } else if (dev->mc_count == 0) {
1464                 outl(0x0004, ioaddr + RxCtrl);
1465                 return;
1466         } else {                                        /* Never executed, for now. */
1467                 struct dev_mc_list *mclist;
1468
1469                 memset(mc_filter, 0, sizeof(mc_filter));
1470                 for (i = 0, mclist = dev->mc_list; mclist && i < dev->mc_count;
1471                          i++, mclist = mclist->next) {
1472                         unsigned int bit_nr =
1473                                 ether_crc_le(ETH_ALEN, mclist->dmi_addr) & 0x3f;
1474                         mc_filter[bit_nr >> 3] |= (1 << bit_nr);
1475                 }
1476         }
1477         /* ToDo: perhaps we need to stop the Tx and Rx process here? */
1478         if (memcmp(mc_filter, ep->mc_filter, sizeof(mc_filter))) {
1479                 for (i = 0; i < 4; i++)
1480                         outw(((u16 *)mc_filter)[i], ioaddr + MC0 + i*4);
1481                 memcpy(ep->mc_filter, mc_filter, sizeof(mc_filter));
1482         }
1483         return;
1484 }
1485
1486 static void netdev_get_drvinfo (struct net_device *dev, struct ethtool_drvinfo *info)
1487 {
1488         struct epic_private *np = dev->priv;
1489
1490         strcpy (info->driver, DRV_NAME);
1491         strcpy (info->version, DRV_VERSION);
1492         strcpy (info->bus_info, pci_name(np->pci_dev));
1493 }
1494
1495 static int netdev_get_settings(struct net_device *dev, struct ethtool_cmd *cmd)
1496 {
1497         struct epic_private *np = dev->priv;
1498         int rc;
1499
1500         spin_lock_irq(&np->lock);
1501         rc = mii_ethtool_gset(&np->mii, cmd);
1502         spin_unlock_irq(&np->lock);
1503
1504         return rc;
1505 }
1506
1507 static int netdev_set_settings(struct net_device *dev, struct ethtool_cmd *cmd)
1508 {
1509         struct epic_private *np = dev->priv;
1510         int rc;
1511
1512         spin_lock_irq(&np->lock);
1513         rc = mii_ethtool_sset(&np->mii, cmd);
1514         spin_unlock_irq(&np->lock);
1515
1516         return rc;
1517 }
1518
1519 static int netdev_nway_reset(struct net_device *dev)
1520 {
1521         struct epic_private *np = dev->priv;
1522         return mii_nway_restart(&np->mii);
1523 }
1524
1525 static u32 netdev_get_link(struct net_device *dev)
1526 {
1527         struct epic_private *np = dev->priv;
1528         return mii_link_ok(&np->mii);
1529 }
1530
1531 static u32 netdev_get_msglevel(struct net_device *dev)
1532 {
1533         return debug;
1534 }
1535
1536 static void netdev_set_msglevel(struct net_device *dev, u32 value)
1537 {
1538         debug = value;
1539 }
1540
1541 static int ethtool_begin(struct net_device *dev)
1542 {
1543         unsigned long ioaddr = dev->base_addr;
1544         /* power-up, if interface is down */
1545         if (! netif_running(dev)) {
1546                 outl(0x0200, ioaddr + GENCTL);
1547                 outl((inl(ioaddr + NVCTL) & ~0x003C) | 0x4800, ioaddr + NVCTL);
1548         }
1549         return 0;
1550 }
1551
1552 static void ethtool_complete(struct net_device *dev)
1553 {
1554         unsigned long ioaddr = dev->base_addr;
1555         /* power-down, if interface is down */
1556         if (! netif_running(dev)) {
1557                 outl(0x0008, ioaddr + GENCTL);
1558                 outl((inl(ioaddr + NVCTL) & ~0x483C) | 0x0000, ioaddr + NVCTL);
1559         }
1560 }
1561
1562 static struct ethtool_ops netdev_ethtool_ops = {
1563         .get_drvinfo            = netdev_get_drvinfo,
1564         .get_settings           = netdev_get_settings,
1565         .set_settings           = netdev_set_settings,
1566         .nway_reset             = netdev_nway_reset,
1567         .get_link               = netdev_get_link,
1568         .get_msglevel           = netdev_get_msglevel,
1569         .set_msglevel           = netdev_set_msglevel,
1570         .get_sg                 = ethtool_op_get_sg,
1571         .get_tx_csum            = ethtool_op_get_tx_csum,
1572         .begin                  = ethtool_begin,
1573         .complete               = ethtool_complete
1574 };
1575
1576 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
1577 {
1578         struct epic_private *np = dev->priv;
1579         long ioaddr = dev->base_addr;
1580         struct mii_ioctl_data *data = if_mii(rq);
1581         int rc;
1582
1583         /* power-up, if interface is down */
1584         if (! netif_running(dev)) {
1585                 outl(0x0200, ioaddr + GENCTL);
1586                 outl((inl(ioaddr + NVCTL) & ~0x003C) | 0x4800, ioaddr + NVCTL);
1587         }
1588
1589         /* all non-ethtool ioctls (the SIOC[GS]MIIxxx ioctls) */
1590         spin_lock_irq(&np->lock);
1591         rc = generic_mii_ioctl(&np->mii, data, cmd, NULL);
1592         spin_unlock_irq(&np->lock);
1593
1594         /* power-down, if interface is down */
1595         if (! netif_running(dev)) {
1596                 outl(0x0008, ioaddr + GENCTL);
1597                 outl((inl(ioaddr + NVCTL) & ~0x483C) | 0x0000, ioaddr + NVCTL);
1598         }
1599         return rc;
1600 }
1601
1602
1603 static void __devexit epic_remove_one (struct pci_dev *pdev)
1604 {
1605         struct net_device *dev = pci_get_drvdata(pdev);
1606         struct epic_private *ep = dev->priv;
1607
1608         pci_free_consistent(pdev, TX_TOTAL_SIZE, ep->tx_ring, ep->tx_ring_dma);
1609         pci_free_consistent(pdev, RX_TOTAL_SIZE, ep->rx_ring, ep->rx_ring_dma);
1610         unregister_netdev(dev);
1611 #ifndef USE_IO_OPS
1612         iounmap((void*) dev->base_addr);
1613 #endif
1614         pci_release_regions(pdev);
1615         free_netdev(dev);
1616         pci_disable_device(pdev);
1617         pci_set_drvdata(pdev, NULL);
1618         /* pci_power_off(pdev, -1); */
1619 }
1620
1621
1622 #ifdef CONFIG_PM
1623
1624 static int epic_suspend (struct pci_dev *pdev, pm_message_t state)
1625 {
1626         struct net_device *dev = pci_get_drvdata(pdev);
1627         long ioaddr = dev->base_addr;
1628
1629         if (!netif_running(dev))
1630                 return 0;
1631         epic_pause(dev);
1632         /* Put the chip into low-power mode. */
1633         outl(0x0008, ioaddr + GENCTL);
1634         /* pci_power_off(pdev, -1); */
1635         return 0;
1636 }
1637
1638
1639 static int epic_resume (struct pci_dev *pdev)
1640 {
1641         struct net_device *dev = pci_get_drvdata(pdev);
1642
1643         if (!netif_running(dev))
1644                 return 0;
1645         epic_restart(dev);
1646         /* pci_power_on(pdev); */
1647         return 0;
1648 }
1649
1650 #endif /* CONFIG_PM */
1651
1652
1653 static struct pci_driver epic_driver = {
1654         .name           = DRV_NAME,
1655         .id_table       = epic_pci_tbl,
1656         .probe          = epic_init_one,
1657         .remove         = __devexit_p(epic_remove_one),
1658 #ifdef CONFIG_PM
1659         .suspend        = epic_suspend,
1660         .resume         = epic_resume,
1661 #endif /* CONFIG_PM */
1662 };
1663
1664
1665 static int __init epic_init (void)
1666 {
1667 /* when a module, this is printed whether or not devices are found in probe */
1668 #ifdef MODULE
1669         printk (KERN_INFO "%s" KERN_INFO "%s" KERN_INFO "%s",
1670                 version, version2, version3);
1671 #endif
1672
1673         return pci_module_init (&epic_driver);
1674 }
1675
1676
1677 static void __exit epic_cleanup (void)
1678 {
1679         pci_unregister_driver (&epic_driver);
1680 }
1681
1682
1683 module_init(epic_init);
1684 module_exit(epic_cleanup);