tehuti: check register size
[linux-2.6] / drivers / net / hamachi.c
1 /* hamachi.c: A Packet Engines GNIC-II Gigabit Ethernet driver for Linux. */
2 /*
3         Written 1998-2000 by Donald Becker.
4         Updates 2000 by Keith Underwood.
5
6         This software may be used and distributed according to the terms of
7         the GNU General Public License (GPL), incorporated herein by reference.
8         Drivers based on or derived from this code fall under the GPL and must
9         retain the authorship, copyright and license notice.  This file is not
10         a complete program and may only be used when the entire operating
11         system is licensed under the GPL.
12
13         The author may be reached as becker@scyld.com, or C/O
14         Scyld Computing Corporation
15         410 Severn Ave., Suite 210
16         Annapolis MD 21403
17
18         This driver is for the Packet Engines GNIC-II PCI Gigabit Ethernet
19         adapter.
20
21         Support and updates available at
22         http://www.scyld.com/network/hamachi.html
23         [link no longer provides useful info -jgarzik]
24         or
25         http://www.parl.clemson.edu/~keithu/hamachi.html
26
27 */
28
29 #define DRV_NAME        "hamachi"
30 #define DRV_VERSION     "2.1"
31 #define DRV_RELDATE     "Sept 11, 2006"
32
33
34 /* A few user-configurable values. */
35
36 static int debug = 1;           /* 1 normal messages, 0 quiet .. 7 verbose.  */
37 #define final_version
38 #define hamachi_debug debug
39 /* Maximum events (Rx packets, etc.) to handle at each interrupt. */
40 static int max_interrupt_work = 40;
41 static int mtu;
42 /* Default values selected by testing on a dual processor PIII-450 */
43 /* These six interrupt control parameters may be set directly when loading the
44  * module, or through the rx_params and tx_params variables
45  */
46 static int max_rx_latency = 0x11;
47 static int max_rx_gap = 0x05;
48 static int min_rx_pkt = 0x18;
49 static int max_tx_latency = 0x00;
50 static int max_tx_gap = 0x00;
51 static int min_tx_pkt = 0x30;
52
53 /* Set the copy breakpoint for the copy-only-tiny-frames scheme.
54    -Setting to > 1518 causes all frames to be copied
55         -Setting to 0 disables copies
56 */
57 static int rx_copybreak;
58
59 /* An override for the hardware detection of bus width.
60         Set to 1 to force 32 bit PCI bus detection.  Set to 4 to force 64 bit.
61         Add 2 to disable parity detection.
62 */
63 static int force32;
64
65
66 /* Used to pass the media type, etc.
67    These exist for driver interoperability.
68    No media types are currently defined.
69                 - The lower 4 bits are reserved for the media type.
70                 - The next three bits may be set to one of the following:
71                         0x00000000 : Autodetect PCI bus
72                         0x00000010 : Force 32 bit PCI bus
73                         0x00000020 : Disable parity detection
74                         0x00000040 : Force 64 bit PCI bus
75                         Default is autodetect
76                 - The next bit can be used to force half-duplex.  This is a bad
77                   idea since no known implementations implement half-duplex, and,
78                   in general, half-duplex for gigabit ethernet is a bad idea.
79                         0x00000080 : Force half-duplex
80                         Default is full-duplex.
81                 - In the original driver, the ninth bit could be used to force
82                   full-duplex.  Maintain that for compatibility
83                    0x00000200 : Force full-duplex
84 */
85 #define MAX_UNITS 8                             /* More are supported, limit only on options */
86 static int options[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
87 static int full_duplex[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
88 /* The Hamachi chipset supports 3 parameters each for Rx and Tx
89  * interruput management.  Parameters will be loaded as specified into
90  * the TxIntControl and RxIntControl registers.
91  *
92  * The registers are arranged as follows:
93  *     23 - 16   15 -  8   7    -    0
94  *    _________________________________
95  *   | min_pkt | max_gap | max_latency |
96  *    ---------------------------------
97  *   min_pkt      : The minimum number of packets processed between
98  *                  interrupts.
99  *   max_gap      : The maximum inter-packet gap in units of 8.192 us
100  *   max_latency  : The absolute time between interrupts in units of 8.192 us
101  *
102  */
103 static int rx_params[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
104 static int tx_params[MAX_UNITS] = {-1, -1, -1, -1, -1, -1, -1, -1};
105
106 /* Operational parameters that are set at compile time. */
107
108 /* Keep the ring sizes a power of two for compile efficiency.
109         The compiler will convert <unsigned>'%'<2^N> into a bit mask.
110    Making the Tx ring too large decreases the effectiveness of channel
111    bonding and packet priority.
112    There are no ill effects from too-large receive rings, except for
113         excessive memory usage */
114 /* Empirically it appears that the Tx ring needs to be a little bigger
115    for these Gbit adapters or you get into an overrun condition really
116    easily.  Also, things appear to work a bit better in back-to-back
117    configurations if the Rx ring is 8 times the size of the Tx ring
118 */
119 #define TX_RING_SIZE    64
120 #define RX_RING_SIZE    512
121 #define TX_TOTAL_SIZE   TX_RING_SIZE*sizeof(struct hamachi_desc)
122 #define RX_TOTAL_SIZE   RX_RING_SIZE*sizeof(struct hamachi_desc)
123
124 /*
125  * Enable netdev_ioctl.  Added interrupt coalescing parameter adjustment.
126  * 2/19/99 Pete Wyckoff <wyckoff@ca.sandia.gov>
127  */
128
129 /* play with 64-bit addrlen; seems to be a teensy bit slower  --pw */
130 /* #define ADDRLEN 64 */
131
132 /*
133  * RX_CHECKSUM turns on card-generated receive checksum generation for
134  *   TCP and UDP packets.  Otherwise the upper layers do the calculation.
135  * TX_CHECKSUM won't do anything too useful, even if it works.  There's no
136  *   easy mechanism by which to tell the TCP/UDP stack that it need not
137  *   generate checksums for this device.  But if somebody can find a way
138  *   to get that to work, most of the card work is in here already.
139  * 3/10/1999 Pete Wyckoff <wyckoff@ca.sandia.gov>
140  */
141 #undef  TX_CHECKSUM
142 #define RX_CHECKSUM
143
144 /* Operational parameters that usually are not changed. */
145 /* Time in jiffies before concluding the transmitter is hung. */
146 #define TX_TIMEOUT  (5*HZ)
147
148 #include <linux/module.h>
149 #include <linux/kernel.h>
150 #include <linux/string.h>
151 #include <linux/timer.h>
152 #include <linux/time.h>
153 #include <linux/errno.h>
154 #include <linux/ioport.h>
155 #include <linux/slab.h>
156 #include <linux/interrupt.h>
157 #include <linux/pci.h>
158 #include <linux/init.h>
159 #include <linux/ethtool.h>
160 #include <linux/mii.h>
161 #include <linux/netdevice.h>
162 #include <linux/etherdevice.h>
163 #include <linux/skbuff.h>
164 #include <linux/ip.h>
165 #include <linux/delay.h>
166 #include <linux/bitops.h>
167
168 #include <asm/uaccess.h>
169 #include <asm/processor.h>      /* Processor type for cache alignment. */
170 #include <asm/io.h>
171 #include <asm/unaligned.h>
172 #include <asm/cache.h>
173
174 static char version[] __devinitdata =
175 KERN_INFO DRV_NAME ".c:v" DRV_VERSION " " DRV_RELDATE "  Written by Donald Becker\n"
176 KERN_INFO "   Some modifications by Eric kasten <kasten@nscl.msu.edu>\n"
177 KERN_INFO "   Further modifications by Keith Underwood <keithu@parl.clemson.edu>\n";
178
179
180 /* IP_MF appears to be only defined in <netinet/ip.h>, however,
181    we need it for hardware checksumming support.  FYI... some of
182    the definitions in <netinet/ip.h> conflict/duplicate those in
183    other linux headers causing many compiler warnings.
184 */
185 #ifndef IP_MF
186   #define IP_MF 0x2000   /* IP more frags from <netinet/ip.h> */
187 #endif
188
189 /* Define IP_OFFSET to be IPOPT_OFFSET */
190 #ifndef IP_OFFSET
191   #ifdef IPOPT_OFFSET
192     #define IP_OFFSET IPOPT_OFFSET
193   #else
194     #define IP_OFFSET 2
195   #endif
196 #endif
197
198 #define RUN_AT(x) (jiffies + (x))
199
200 #ifndef ADDRLEN
201 #define ADDRLEN 32
202 #endif
203
204 /* Condensed bus+endian portability operations. */
205 #if ADDRLEN == 64
206 #define cpu_to_leXX(addr)       cpu_to_le64(addr)
207 #define leXX_to_cpu(addr)       le64_to_cpu(addr)
208 #else
209 #define cpu_to_leXX(addr)       cpu_to_le32(addr)
210 #define leXX_to_cpu(addr)       le32_to_cpu(addr)
211 #endif
212
213
214 /*
215                                 Theory of Operation
216
217 I. Board Compatibility
218
219 This device driver is designed for the Packet Engines "Hamachi"
220 Gigabit Ethernet chip.  The only PCA currently supported is the GNIC-II 64-bit
221 66Mhz PCI card.
222
223 II. Board-specific settings
224
225 No jumpers exist on the board.  The chip supports software correction of
226 various motherboard wiring errors, however this driver does not support
227 that feature.
228
229 III. Driver operation
230
231 IIIa. Ring buffers
232
233 The Hamachi uses a typical descriptor based bus-master architecture.
234 The descriptor list is similar to that used by the Digital Tulip.
235 This driver uses two statically allocated fixed-size descriptor lists
236 formed into rings by a branch from the final descriptor to the beginning of
237 the list.  The ring sizes are set at compile time by RX/TX_RING_SIZE.
238
239 This driver uses a zero-copy receive and transmit scheme similar my other
240 network drivers.
241 The driver allocates full frame size skbuffs for the Rx ring buffers at
242 open() time and passes the skb->data field to the Hamachi as receive data
243 buffers.  When an incoming frame is less than RX_COPYBREAK bytes long,
244 a fresh skbuff is allocated and the frame is copied to the new skbuff.
245 When the incoming frame is larger, the skbuff is passed directly up the
246 protocol stack and replaced by a newly allocated skbuff.
247
248 The RX_COPYBREAK value is chosen to trade-off the memory wasted by
249 using a full-sized skbuff for small frames vs. the copying costs of larger
250 frames.  Gigabit cards are typically used on generously configured machines
251 and the underfilled buffers have negligible impact compared to the benefit of
252 a single allocation size, so the default value of zero results in never
253 copying packets.
254
255 IIIb/c. Transmit/Receive Structure
256
257 The Rx and Tx descriptor structure are straight-forward, with no historical
258 baggage that must be explained.  Unlike the awkward DBDMA structure, there
259 are no unused fields or option bits that had only one allowable setting.
260
261 Two details should be noted about the descriptors: The chip supports both 32
262 bit and 64 bit address structures, and the length field is overwritten on
263 the receive descriptors.  The descriptor length is set in the control word
264 for each channel. The development driver uses 32 bit addresses only, however
265 64 bit addresses may be enabled for 64 bit architectures e.g. the Alpha.
266
267 IIId. Synchronization
268
269 This driver is very similar to my other network drivers.
270 The driver runs as two independent, single-threaded flows of control.  One
271 is the send-packet routine, which enforces single-threaded use by the
272 dev->tbusy flag.  The other thread is the interrupt handler, which is single
273 threaded by the hardware and other software.
274
275 The send packet thread has partial control over the Tx ring and 'dev->tbusy'
276 flag.  It sets the tbusy flag whenever it's queuing a Tx packet. If the next
277 queue slot is empty, it clears the tbusy flag when finished otherwise it sets
278 the 'hmp->tx_full' flag.
279
280 The interrupt handler has exclusive control over the Rx ring and records stats
281 from the Tx ring.  After reaping the stats, it marks the Tx queue entry as
282 empty by incrementing the dirty_tx mark. Iff the 'hmp->tx_full' flag is set, it
283 clears both the tx_full and tbusy flags.
284
285 IV. Notes
286
287 Thanks to Kim Stearns of Packet Engines for providing a pair of GNIC-II boards.
288
289 IVb. References
290
291 Hamachi Engineering Design Specification, 5/15/97
292 (Note: This version was marked "Confidential".)
293
294 IVc. Errata
295
296 None noted.
297
298 V.  Recent Changes
299
300 01/15/1999 EPK  Enlargement of the TX and RX ring sizes.  This appears
301     to help avoid some stall conditions -- this needs further research.
302
303 01/15/1999 EPK  Creation of the hamachi_tx function.  This function cleans
304     the Tx ring and is called from hamachi_start_xmit (this used to be
305     called from hamachi_interrupt but it tends to delay execution of the
306     interrupt handler and thus reduce bandwidth by reducing the latency
307     between hamachi_rx()'s).  Notably, some modification has been made so
308     that the cleaning loop checks only to make sure that the DescOwn bit
309     isn't set in the status flag since the card is not required
310     to set the entire flag to zero after processing.
311
312 01/15/1999 EPK In the hamachi_start_tx function, the Tx ring full flag is
313     checked before attempting to add a buffer to the ring.  If the ring is full
314     an attempt is made to free any dirty buffers and thus find space for
315     the new buffer or the function returns non-zero which should case the
316     scheduler to reschedule the buffer later.
317
318 01/15/1999 EPK Some adjustments were made to the chip initialization.
319     End-to-end flow control should now be fully active and the interrupt
320     algorithm vars have been changed.  These could probably use further tuning.
321
322 01/15/1999 EPK Added the max_{rx,tx}_latency options.  These are used to
323     set the rx and tx latencies for the Hamachi interrupts. If you're having
324     problems with network stalls, try setting these to higher values.
325     Valid values are 0x00 through 0xff.
326
327 01/15/1999 EPK In general, the overall bandwidth has increased and
328     latencies are better (sometimes by a factor of 2).  Stalls are rare at
329     this point, however there still appears to be a bug somewhere between the
330     hardware and driver.  TCP checksum errors under load also appear to be
331     eliminated at this point.
332
333 01/18/1999 EPK Ensured that the DescEndRing bit was being set on both the
334     Rx and Tx rings.  This appears to have been affecting whether a particular
335     peer-to-peer connection would hang under high load.  I believe the Rx
336     rings was typically getting set correctly, but the Tx ring wasn't getting
337     the DescEndRing bit set during initialization. ??? Does this mean the
338     hamachi card is using the DescEndRing in processing even if a particular
339     slot isn't in use -- hypothetically, the card might be searching the
340     entire Tx ring for slots with the DescOwn bit set and then processing
341     them.  If the DescEndRing bit isn't set, then it might just wander off
342     through memory until it hits a chunk of data with that bit set
343     and then looping back.
344
345 02/09/1999 EPK Added Michel Mueller's TxDMA Interrupt and Tx-timeout
346     problem (TxCmd and RxCmd need only to be set when idle or stopped.
347
348 02/09/1999 EPK Added code to check/reset dev->tbusy in hamachi_interrupt.
349     (Michel Mueller pointed out the ``permanently busy'' potential
350     problem here).
351
352 02/22/1999 EPK Added Pete Wyckoff's ioctl to control the Tx/Rx latencies.
353
354 02/23/1999 EPK Verified that the interrupt status field bits for Tx were
355     incorrectly defined and corrected (as per Michel Mueller).
356
357 02/23/1999 EPK Corrected the Tx full check to check that at least 4 slots
358     were available before reseting the tbusy and tx_full flags
359     (as per Michel Mueller).
360
361 03/11/1999 EPK Added Pete Wyckoff's hardware checksumming support.
362
363 12/31/1999 KDU Cleaned up assorted things and added Don's code to force
364 32 bit.
365
366 02/20/2000 KDU Some of the control was just plain odd.  Cleaned up the
367 hamachi_start_xmit() and hamachi_interrupt() code.  There is still some
368 re-structuring I would like to do.
369
370 03/01/2000 KDU Experimenting with a WIDE range of interrupt mitigation
371 parameters on a dual P3-450 setup yielded the new default interrupt
372 mitigation parameters.  Tx should interrupt VERY infrequently due to
373 Eric's scheme.  Rx should be more often...
374
375 03/13/2000 KDU Added a patch to make the Rx Checksum code interact
376 nicely with non-linux machines.
377
378 03/13/2000 KDU Experimented with some of the configuration values:
379
380         -It seems that enabling PCI performance commands for descriptors
381         (changing RxDMACtrl and TxDMACtrl lower nibble from 5 to D) has minimal
382         performance impact for any of my tests. (ttcp, netpipe, netperf)  I will
383         leave them that way until I hear further feedback.
384
385         -Increasing the PCI_LATENCY_TIMER to 130
386         (2 + (burst size of 128 * (0 wait states + 1))) seems to slightly
387         degrade performance.  Leaving default at 64 pending further information.
388
389 03/14/2000 KDU Further tuning:
390
391         -adjusted boguscnt in hamachi_rx() to depend on interrupt
392         mitigation parameters chosen.
393
394         -Selected a set of interrupt parameters based on some extensive testing.
395         These may change with more testing.
396
397 TO DO:
398
399 -Consider borrowing from the acenic driver code to check PCI_COMMAND for
400 PCI_COMMAND_INVALIDATE.  Set maximum burst size to cache line size in
401 that case.
402
403 -fix the reset procedure.  It doesn't quite work.
404 */
405
406 /* A few values that may be tweaked. */
407 /* Size of each temporary Rx buffer, calculated as:
408  * 1518 bytes (ethernet packet) + 2 bytes (to get 8 byte alignment for
409  * the card) + 8 bytes of status info + 8 bytes for the Rx Checksum +
410  * 2 more because we use skb_reserve.
411  */
412 #define PKT_BUF_SZ              1538
413
414 /* For now, this is going to be set to the maximum size of an ethernet
415  * packet.  Eventually, we may want to make it a variable that is
416  * related to the MTU
417  */
418 #define MAX_FRAME_SIZE  1518
419
420 /* The rest of these values should never change. */
421
422 static void hamachi_timer(unsigned long data);
423
424 enum capability_flags {CanHaveMII=1, };
425 static const struct chip_info {
426         u16     vendor_id, device_id, device_id_mask, pad;
427         const char *name;
428         void (*media_timer)(unsigned long data);
429         int flags;
430 } chip_tbl[] = {
431         {0x1318, 0x0911, 0xffff, 0, "Hamachi GNIC-II", hamachi_timer, 0},
432         {0,},
433 };
434
435 /* Offsets to the Hamachi registers.  Various sizes. */
436 enum hamachi_offsets {
437         TxDMACtrl=0x00, TxCmd=0x04, TxStatus=0x06, TxPtr=0x08, TxCurPtr=0x10,
438         RxDMACtrl=0x20, RxCmd=0x24, RxStatus=0x26, RxPtr=0x28, RxCurPtr=0x30,
439         PCIClkMeas=0x060, MiscStatus=0x066, ChipRev=0x68, ChipReset=0x06B,
440         LEDCtrl=0x06C, VirtualJumpers=0x06D, GPIO=0x6E,
441         TxChecksum=0x074, RxChecksum=0x076,
442         TxIntrCtrl=0x078, RxIntrCtrl=0x07C,
443         InterruptEnable=0x080, InterruptClear=0x084, IntrStatus=0x088,
444         EventStatus=0x08C,
445         MACCnfg=0x0A0, FrameGap0=0x0A2, FrameGap1=0x0A4,
446         /* See enum MII_offsets below. */
447         MACCnfg2=0x0B0, RxDepth=0x0B8, FlowCtrl=0x0BC, MaxFrameSize=0x0CE,
448         AddrMode=0x0D0, StationAddr=0x0D2,
449         /* Gigabit AutoNegotiation. */
450         ANCtrl=0x0E0, ANStatus=0x0E2, ANXchngCtrl=0x0E4, ANAdvertise=0x0E8,
451         ANLinkPartnerAbility=0x0EA,
452         EECmdStatus=0x0F0, EEData=0x0F1, EEAddr=0x0F2,
453         FIFOcfg=0x0F8,
454 };
455
456 /* Offsets to the MII-mode registers. */
457 enum MII_offsets {
458         MII_Cmd=0xA6, MII_Addr=0xA8, MII_Wr_Data=0xAA, MII_Rd_Data=0xAC,
459         MII_Status=0xAE,
460 };
461
462 /* Bits in the interrupt status/mask registers. */
463 enum intr_status_bits {
464         IntrRxDone=0x01, IntrRxPCIFault=0x02, IntrRxPCIErr=0x04,
465         IntrTxDone=0x100, IntrTxPCIFault=0x200, IntrTxPCIErr=0x400,
466         LinkChange=0x10000, NegotiationChange=0x20000, StatsMax=0x40000, };
467
468 /* The Hamachi Rx and Tx buffer descriptors. */
469 struct hamachi_desc {
470         __le32 status_n_length;
471 #if ADDRLEN == 64
472         u32 pad;
473         __le64 addr;
474 #else
475         __le32 addr;
476 #endif
477 };
478
479 /* Bits in hamachi_desc.status_n_length */
480 enum desc_status_bits {
481         DescOwn=0x80000000, DescEndPacket=0x40000000, DescEndRing=0x20000000,
482         DescIntr=0x10000000,
483 };
484
485 #define PRIV_ALIGN      15                      /* Required alignment mask */
486 #define MII_CNT         4
487 struct hamachi_private {
488         /* Descriptor rings first for alignment.  Tx requires a second descriptor
489            for status. */
490         struct hamachi_desc *rx_ring;
491         struct hamachi_desc *tx_ring;
492         struct sk_buff* rx_skbuff[RX_RING_SIZE];
493         struct sk_buff* tx_skbuff[TX_RING_SIZE];
494         dma_addr_t tx_ring_dma;
495         dma_addr_t rx_ring_dma;
496         struct net_device_stats stats;
497         struct timer_list timer;                /* Media selection timer. */
498         /* Frequently used and paired value: keep adjacent for cache effect. */
499         spinlock_t lock;
500         int chip_id;
501         unsigned int cur_rx, dirty_rx;          /* Producer/consumer ring indices */
502         unsigned int cur_tx, dirty_tx;
503         unsigned int rx_buf_sz;                 /* Based on MTU+slack. */
504         unsigned int tx_full:1;                 /* The Tx queue is full. */
505         unsigned int duplex_lock:1;
506         unsigned int default_port:4;            /* Last dev->if_port value. */
507         /* MII transceiver section. */
508         int mii_cnt;                                                            /* MII device addresses. */
509         struct mii_if_info mii_if;              /* MII lib hooks/info */
510         unsigned char phys[MII_CNT];            /* MII device addresses, only first one used. */
511         u32 rx_int_var, tx_int_var;     /* interrupt control variables */
512         u32 option;                                                     /* Hold on to a copy of the options */
513         struct pci_dev *pci_dev;
514         void __iomem *base;
515 };
516
517 MODULE_AUTHOR("Donald Becker <becker@scyld.com>, Eric Kasten <kasten@nscl.msu.edu>, Keith Underwood <keithu@parl.clemson.edu>");
518 MODULE_DESCRIPTION("Packet Engines 'Hamachi' GNIC-II Gigabit Ethernet driver");
519 MODULE_LICENSE("GPL");
520
521 module_param(max_interrupt_work, int, 0);
522 module_param(mtu, int, 0);
523 module_param(debug, int, 0);
524 module_param(min_rx_pkt, int, 0);
525 module_param(max_rx_gap, int, 0);
526 module_param(max_rx_latency, int, 0);
527 module_param(min_tx_pkt, int, 0);
528 module_param(max_tx_gap, int, 0);
529 module_param(max_tx_latency, int, 0);
530 module_param(rx_copybreak, int, 0);
531 module_param_array(rx_params, int, NULL, 0);
532 module_param_array(tx_params, int, NULL, 0);
533 module_param_array(options, int, NULL, 0);
534 module_param_array(full_duplex, int, NULL, 0);
535 module_param(force32, int, 0);
536 MODULE_PARM_DESC(max_interrupt_work, "GNIC-II maximum events handled per interrupt");
537 MODULE_PARM_DESC(mtu, "GNIC-II MTU (all boards)");
538 MODULE_PARM_DESC(debug, "GNIC-II debug level (0-7)");
539 MODULE_PARM_DESC(min_rx_pkt, "GNIC-II minimum Rx packets processed between interrupts");
540 MODULE_PARM_DESC(max_rx_gap, "GNIC-II maximum Rx inter-packet gap in 8.192 microsecond units");
541 MODULE_PARM_DESC(max_rx_latency, "GNIC-II time between Rx interrupts in 8.192 microsecond units");
542 MODULE_PARM_DESC(min_tx_pkt, "GNIC-II minimum Tx packets processed between interrupts");
543 MODULE_PARM_DESC(max_tx_gap, "GNIC-II maximum Tx inter-packet gap in 8.192 microsecond units");
544 MODULE_PARM_DESC(max_tx_latency, "GNIC-II time between Tx interrupts in 8.192 microsecond units");
545 MODULE_PARM_DESC(rx_copybreak, "GNIC-II copy breakpoint for copy-only-tiny-frames");
546 MODULE_PARM_DESC(rx_params, "GNIC-II min_rx_pkt+max_rx_gap+max_rx_latency");
547 MODULE_PARM_DESC(tx_params, "GNIC-II min_tx_pkt+max_tx_gap+max_tx_latency");
548 MODULE_PARM_DESC(options, "GNIC-II Bits 0-3: media type, bits 4-6: as force32, bit 7: half duplex, bit 9 full duplex");
549 MODULE_PARM_DESC(full_duplex, "GNIC-II full duplex setting(s) (1)");
550 MODULE_PARM_DESC(force32, "GNIC-II: Bit 0: 32 bit PCI, bit 1: disable parity, bit 2: 64 bit PCI (all boards)");
551
552 static int read_eeprom(void __iomem *ioaddr, int location);
553 static int mdio_read(struct net_device *dev, int phy_id, int location);
554 static void mdio_write(struct net_device *dev, int phy_id, int location, int value);
555 static int hamachi_open(struct net_device *dev);
556 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd);
557 static void hamachi_timer(unsigned long data);
558 static void hamachi_tx_timeout(struct net_device *dev);
559 static void hamachi_init_ring(struct net_device *dev);
560 static int hamachi_start_xmit(struct sk_buff *skb, struct net_device *dev);
561 static irqreturn_t hamachi_interrupt(int irq, void *dev_instance);
562 static int hamachi_rx(struct net_device *dev);
563 static inline int hamachi_tx(struct net_device *dev);
564 static void hamachi_error(struct net_device *dev, int intr_status);
565 static int hamachi_close(struct net_device *dev);
566 static struct net_device_stats *hamachi_get_stats(struct net_device *dev);
567 static void set_rx_mode(struct net_device *dev);
568 static const struct ethtool_ops ethtool_ops;
569 static const struct ethtool_ops ethtool_ops_no_mii;
570
571 static int __devinit hamachi_init_one (struct pci_dev *pdev,
572                                     const struct pci_device_id *ent)
573 {
574         struct hamachi_private *hmp;
575         int option, i, rx_int_var, tx_int_var, boguscnt;
576         int chip_id = ent->driver_data;
577         int irq;
578         void __iomem *ioaddr;
579         unsigned long base;
580         static int card_idx;
581         struct net_device *dev;
582         void *ring_space;
583         dma_addr_t ring_dma;
584         int ret = -ENOMEM;
585         DECLARE_MAC_BUF(mac);
586
587 /* when built into the kernel, we only print version if device is found */
588 #ifndef MODULE
589         static int printed_version;
590         if (!printed_version++)
591                 printk(version);
592 #endif
593
594         if (pci_enable_device(pdev)) {
595                 ret = -EIO;
596                 goto err_out;
597         }
598
599         base = pci_resource_start(pdev, 0);
600 #ifdef __alpha__                                /* Really "64 bit addrs" */
601         base |= (pci_resource_start(pdev, 1) << 32);
602 #endif
603
604         pci_set_master(pdev);
605
606         i = pci_request_regions(pdev, DRV_NAME);
607         if (i)
608                 return i;
609
610         irq = pdev->irq;
611         ioaddr = ioremap(base, 0x400);
612         if (!ioaddr)
613                 goto err_out_release;
614
615         dev = alloc_etherdev(sizeof(struct hamachi_private));
616         if (!dev)
617                 goto err_out_iounmap;
618
619         SET_NETDEV_DEV(dev, &pdev->dev);
620
621 #ifdef TX_CHECKSUM
622         printk("check that skbcopy in ip_queue_xmit isn't happening\n");
623         dev->hard_header_len += 8;  /* for cksum tag */
624 #endif
625
626         for (i = 0; i < 6; i++)
627                 dev->dev_addr[i] = 1 ? read_eeprom(ioaddr, 4 + i)
628                         : readb(ioaddr + StationAddr + i);
629
630 #if ! defined(final_version)
631         if (hamachi_debug > 4)
632                 for (i = 0; i < 0x10; i++)
633                         printk("%2.2x%s",
634                                    read_eeprom(ioaddr, i), i % 16 != 15 ? " " : "\n");
635 #endif
636
637         hmp = netdev_priv(dev);
638         spin_lock_init(&hmp->lock);
639
640         hmp->mii_if.dev = dev;
641         hmp->mii_if.mdio_read = mdio_read;
642         hmp->mii_if.mdio_write = mdio_write;
643         hmp->mii_if.phy_id_mask = 0x1f;
644         hmp->mii_if.reg_num_mask = 0x1f;
645
646         ring_space = pci_alloc_consistent(pdev, TX_TOTAL_SIZE, &ring_dma);
647         if (!ring_space)
648                 goto err_out_cleardev;
649         hmp->tx_ring = (struct hamachi_desc *)ring_space;
650         hmp->tx_ring_dma = ring_dma;
651
652         ring_space = pci_alloc_consistent(pdev, RX_TOTAL_SIZE, &ring_dma);
653         if (!ring_space)
654                 goto err_out_unmap_tx;
655         hmp->rx_ring = (struct hamachi_desc *)ring_space;
656         hmp->rx_ring_dma = ring_dma;
657
658         /* Check for options being passed in */
659         option = card_idx < MAX_UNITS ? options[card_idx] : 0;
660         if (dev->mem_start)
661                 option = dev->mem_start;
662
663         /* If the bus size is misidentified, do the following. */
664         force32 = force32 ? force32 :
665                 ((option  >= 0) ? ((option & 0x00000070) >> 4) : 0 );
666         if (force32)
667                 writeb(force32, ioaddr + VirtualJumpers);
668
669         /* Hmmm, do we really need to reset the chip???. */
670         writeb(0x01, ioaddr + ChipReset);
671
672         /* After a reset, the clock speed measurement of the PCI bus will not
673          * be valid for a moment.  Wait for a little while until it is.  If
674          * it takes more than 10ms, forget it.
675          */
676         udelay(10);
677         i = readb(ioaddr + PCIClkMeas);
678         for (boguscnt = 0; (!(i & 0x080)) && boguscnt < 1000; boguscnt++){
679                 udelay(10);
680                 i = readb(ioaddr + PCIClkMeas);
681         }
682
683         hmp->base = ioaddr;
684         dev->base_addr = (unsigned long)ioaddr;
685         dev->irq = irq;
686         pci_set_drvdata(pdev, dev);
687
688         hmp->chip_id = chip_id;
689         hmp->pci_dev = pdev;
690
691         /* The lower four bits are the media type. */
692         if (option > 0) {
693                 hmp->option = option;
694                 if (option & 0x200)
695                         hmp->mii_if.full_duplex = 1;
696                 else if (option & 0x080)
697                         hmp->mii_if.full_duplex = 0;
698                 hmp->default_port = option & 15;
699                 if (hmp->default_port)
700                         hmp->mii_if.force_media = 1;
701         }
702         if (card_idx < MAX_UNITS  &&  full_duplex[card_idx] > 0)
703                 hmp->mii_if.full_duplex = 1;
704
705         /* lock the duplex mode if someone specified a value */
706         if (hmp->mii_if.full_duplex || (option & 0x080))
707                 hmp->duplex_lock = 1;
708
709         /* Set interrupt tuning parameters */
710         max_rx_latency = max_rx_latency & 0x00ff;
711         max_rx_gap = max_rx_gap & 0x00ff;
712         min_rx_pkt = min_rx_pkt & 0x00ff;
713         max_tx_latency = max_tx_latency & 0x00ff;
714         max_tx_gap = max_tx_gap & 0x00ff;
715         min_tx_pkt = min_tx_pkt & 0x00ff;
716
717         rx_int_var = card_idx < MAX_UNITS ? rx_params[card_idx] : -1;
718         tx_int_var = card_idx < MAX_UNITS ? tx_params[card_idx] : -1;
719         hmp->rx_int_var = rx_int_var >= 0 ? rx_int_var :
720                 (min_rx_pkt << 16 | max_rx_gap << 8 | max_rx_latency);
721         hmp->tx_int_var = tx_int_var >= 0 ? tx_int_var :
722                 (min_tx_pkt << 16 | max_tx_gap << 8 | max_tx_latency);
723
724
725         /* The Hamachi-specific entries in the device structure. */
726         dev->open = &hamachi_open;
727         dev->hard_start_xmit = &hamachi_start_xmit;
728         dev->stop = &hamachi_close;
729         dev->get_stats = &hamachi_get_stats;
730         dev->set_multicast_list = &set_rx_mode;
731         dev->do_ioctl = &netdev_ioctl;
732         if (chip_tbl[hmp->chip_id].flags & CanHaveMII)
733                 SET_ETHTOOL_OPS(dev, &ethtool_ops);
734         else
735                 SET_ETHTOOL_OPS(dev, &ethtool_ops_no_mii);
736         dev->tx_timeout = &hamachi_tx_timeout;
737         dev->watchdog_timeo = TX_TIMEOUT;
738         if (mtu)
739                 dev->mtu = mtu;
740
741         i = register_netdev(dev);
742         if (i) {
743                 ret = i;
744                 goto err_out_unmap_rx;
745         }
746
747         printk(KERN_INFO "%s: %s type %x at %p, %s, IRQ %d.\n",
748                    dev->name, chip_tbl[chip_id].name, readl(ioaddr + ChipRev),
749                    ioaddr, print_mac(mac, dev->dev_addr), irq);
750         i = readb(ioaddr + PCIClkMeas);
751         printk(KERN_INFO "%s:  %d-bit %d Mhz PCI bus (%d), Virtual Jumpers "
752                    "%2.2x, LPA %4.4x.\n",
753                    dev->name, readw(ioaddr + MiscStatus) & 1 ? 64 : 32,
754                    i ? 2000/(i&0x7f) : 0, i&0x7f, (int)readb(ioaddr + VirtualJumpers),
755                    readw(ioaddr + ANLinkPartnerAbility));
756
757         if (chip_tbl[hmp->chip_id].flags & CanHaveMII) {
758                 int phy, phy_idx = 0;
759                 for (phy = 0; phy < 32 && phy_idx < MII_CNT; phy++) {
760                         int mii_status = mdio_read(dev, phy, MII_BMSR);
761                         if (mii_status != 0xffff  &&
762                                 mii_status != 0x0000) {
763                                 hmp->phys[phy_idx++] = phy;
764                                 hmp->mii_if.advertising = mdio_read(dev, phy, MII_ADVERTISE);
765                                 printk(KERN_INFO "%s: MII PHY found at address %d, status "
766                                            "0x%4.4x advertising %4.4x.\n",
767                                            dev->name, phy, mii_status, hmp->mii_if.advertising);
768                         }
769                 }
770                 hmp->mii_cnt = phy_idx;
771                 if (hmp->mii_cnt > 0)
772                         hmp->mii_if.phy_id = hmp->phys[0];
773                 else
774                         memset(&hmp->mii_if, 0, sizeof(hmp->mii_if));
775         }
776         /* Configure gigabit autonegotiation. */
777         writew(0x0400, ioaddr + ANXchngCtrl);   /* Enable legacy links. */
778         writew(0x08e0, ioaddr + ANAdvertise);   /* Set our advertise word. */
779         writew(0x1000, ioaddr + ANCtrl);                        /* Enable negotiation */
780
781         card_idx++;
782         return 0;
783
784 err_out_unmap_rx:
785         pci_free_consistent(pdev, RX_TOTAL_SIZE, hmp->rx_ring,
786                 hmp->rx_ring_dma);
787 err_out_unmap_tx:
788         pci_free_consistent(pdev, TX_TOTAL_SIZE, hmp->tx_ring,
789                 hmp->tx_ring_dma);
790 err_out_cleardev:
791         free_netdev (dev);
792 err_out_iounmap:
793         iounmap(ioaddr);
794 err_out_release:
795         pci_release_regions(pdev);
796 err_out:
797         return ret;
798 }
799
800 static int __devinit read_eeprom(void __iomem *ioaddr, int location)
801 {
802         int bogus_cnt = 1000;
803
804         /* We should check busy first - per docs -KDU */
805         while ((readb(ioaddr + EECmdStatus) & 0x40)  && --bogus_cnt > 0);
806         writew(location, ioaddr + EEAddr);
807         writeb(0x02, ioaddr + EECmdStatus);
808         bogus_cnt = 1000;
809         while ((readb(ioaddr + EECmdStatus) & 0x40)  && --bogus_cnt > 0);
810         if (hamachi_debug > 5)
811                 printk("   EEPROM status is %2.2x after %d ticks.\n",
812                            (int)readb(ioaddr + EECmdStatus), 1000- bogus_cnt);
813         return readb(ioaddr + EEData);
814 }
815
816 /* MII Managemen Data I/O accesses.
817    These routines assume the MDIO controller is idle, and do not exit until
818    the command is finished. */
819
820 static int mdio_read(struct net_device *dev, int phy_id, int location)
821 {
822         struct hamachi_private *hmp = netdev_priv(dev);
823         void __iomem *ioaddr = hmp->base;
824         int i;
825
826         /* We should check busy first - per docs -KDU */
827         for (i = 10000; i >= 0; i--)
828                 if ((readw(ioaddr + MII_Status) & 1) == 0)
829                         break;
830         writew((phy_id<<8) + location, ioaddr + MII_Addr);
831         writew(0x0001, ioaddr + MII_Cmd);
832         for (i = 10000; i >= 0; i--)
833                 if ((readw(ioaddr + MII_Status) & 1) == 0)
834                         break;
835         return readw(ioaddr + MII_Rd_Data);
836 }
837
838 static void mdio_write(struct net_device *dev, int phy_id, int location, int value)
839 {
840         struct hamachi_private *hmp = netdev_priv(dev);
841         void __iomem *ioaddr = hmp->base;
842         int i;
843
844         /* We should check busy first - per docs -KDU */
845         for (i = 10000; i >= 0; i--)
846                 if ((readw(ioaddr + MII_Status) & 1) == 0)
847                         break;
848         writew((phy_id<<8) + location, ioaddr + MII_Addr);
849         writew(value, ioaddr + MII_Wr_Data);
850
851         /* Wait for the command to finish. */
852         for (i = 10000; i >= 0; i--)
853                 if ((readw(ioaddr + MII_Status) & 1) == 0)
854                         break;
855         return;
856 }
857
858
859 static int hamachi_open(struct net_device *dev)
860 {
861         struct hamachi_private *hmp = netdev_priv(dev);
862         void __iomem *ioaddr = hmp->base;
863         int i;
864         u32 rx_int_var, tx_int_var;
865         u16 fifo_info;
866
867         i = request_irq(dev->irq, &hamachi_interrupt, IRQF_SHARED, dev->name, dev);
868         if (i)
869                 return i;
870
871         if (hamachi_debug > 1)
872                 printk(KERN_DEBUG "%s: hamachi_open() irq %d.\n",
873                            dev->name, dev->irq);
874
875         hamachi_init_ring(dev);
876
877 #if ADDRLEN == 64
878         /* writellll anyone ? */
879         writel(hmp->rx_ring_dma, ioaddr + RxPtr);
880         writel(hmp->rx_ring_dma >> 32, ioaddr + RxPtr + 4);
881         writel(hmp->tx_ring_dma, ioaddr + TxPtr);
882         writel(hmp->tx_ring_dma >> 32, ioaddr + TxPtr + 4);
883 #else
884         writel(hmp->rx_ring_dma, ioaddr + RxPtr);
885         writel(hmp->tx_ring_dma, ioaddr + TxPtr);
886 #endif
887
888         /* TODO:  It would make sense to organize this as words since the card
889          * documentation does. -KDU
890          */
891         for (i = 0; i < 6; i++)
892                 writeb(dev->dev_addr[i], ioaddr + StationAddr + i);
893
894         /* Initialize other registers: with so many this eventually this will
895            converted to an offset/value list. */
896
897         /* Configure the FIFO */
898         fifo_info = (readw(ioaddr + GPIO) & 0x00C0) >> 6;
899         switch (fifo_info){
900                 case 0 :
901                         /* No FIFO */
902                         writew(0x0000, ioaddr + FIFOcfg);
903                         break;
904                 case 1 :
905                         /* Configure the FIFO for 512K external, 16K used for Tx. */
906                         writew(0x0028, ioaddr + FIFOcfg);
907                         break;
908                 case 2 :
909                         /* Configure the FIFO for 1024 external, 32K used for Tx. */
910                         writew(0x004C, ioaddr + FIFOcfg);
911                         break;
912                 case 3 :
913                         /* Configure the FIFO for 2048 external, 32K used for Tx. */
914                         writew(0x006C, ioaddr + FIFOcfg);
915                         break;
916                 default :
917                         printk(KERN_WARNING "%s:  Unsupported external memory config!\n",
918                                 dev->name);
919                         /* Default to no FIFO */
920                         writew(0x0000, ioaddr + FIFOcfg);
921                         break;
922         }
923
924         if (dev->if_port == 0)
925                 dev->if_port = hmp->default_port;
926
927
928         /* Setting the Rx mode will start the Rx process. */
929         /* If someone didn't choose a duplex, default to full-duplex */
930         if (hmp->duplex_lock != 1)
931                 hmp->mii_if.full_duplex = 1;
932
933         /* always 1, takes no more time to do it */
934         writew(0x0001, ioaddr + RxChecksum);
935 #ifdef TX_CHECKSUM
936         writew(0x0001, ioaddr + TxChecksum);
937 #else
938         writew(0x0000, ioaddr + TxChecksum);
939 #endif
940         writew(0x8000, ioaddr + MACCnfg); /* Soft reset the MAC */
941         writew(0x215F, ioaddr + MACCnfg);
942         writew(0x000C, ioaddr + FrameGap0);
943         /* WHAT?!?!?  Why isn't this documented somewhere? -KDU */
944         writew(0x1018, ioaddr + FrameGap1);
945         /* Why do we enable receives/transmits here? -KDU */
946         writew(0x0780, ioaddr + MACCnfg2); /* Upper 16 bits control LEDs. */
947         /* Enable automatic generation of flow control frames, period 0xffff. */
948         writel(0x0030FFFF, ioaddr + FlowCtrl);
949         writew(MAX_FRAME_SIZE, ioaddr + MaxFrameSize);  /* dev->mtu+14 ??? */
950
951         /* Enable legacy links. */
952         writew(0x0400, ioaddr + ANXchngCtrl);   /* Enable legacy links. */
953         /* Initial Link LED to blinking red. */
954         writeb(0x03, ioaddr + LEDCtrl);
955
956         /* Configure interrupt mitigation.  This has a great effect on
957            performance, so systems tuning should start here!. */
958
959         rx_int_var = hmp->rx_int_var;
960         tx_int_var = hmp->tx_int_var;
961
962         if (hamachi_debug > 1) {
963                 printk("max_tx_latency: %d, max_tx_gap: %d, min_tx_pkt: %d\n",
964                         tx_int_var & 0x00ff, (tx_int_var & 0x00ff00) >> 8,
965                         (tx_int_var & 0x00ff0000) >> 16);
966                 printk("max_rx_latency: %d, max_rx_gap: %d, min_rx_pkt: %d\n",
967                         rx_int_var & 0x00ff, (rx_int_var & 0x00ff00) >> 8,
968                         (rx_int_var & 0x00ff0000) >> 16);
969                 printk("rx_int_var: %x, tx_int_var: %x\n", rx_int_var, tx_int_var);
970         }
971
972         writel(tx_int_var, ioaddr + TxIntrCtrl);
973         writel(rx_int_var, ioaddr + RxIntrCtrl);
974
975         set_rx_mode(dev);
976
977         netif_start_queue(dev);
978
979         /* Enable interrupts by setting the interrupt mask. */
980         writel(0x80878787, ioaddr + InterruptEnable);
981         writew(0x0000, ioaddr + EventStatus);   /* Clear non-interrupting events */
982
983         /* Configure and start the DMA channels. */
984         /* Burst sizes are in the low three bits: size = 4<<(val&7) */
985 #if ADDRLEN == 64
986         writew(0x005D, ioaddr + RxDMACtrl);             /* 128 dword bursts */
987         writew(0x005D, ioaddr + TxDMACtrl);
988 #else
989         writew(0x001D, ioaddr + RxDMACtrl);
990         writew(0x001D, ioaddr + TxDMACtrl);
991 #endif
992         writew(0x0001, ioaddr + RxCmd);
993
994         if (hamachi_debug > 2) {
995                 printk(KERN_DEBUG "%s: Done hamachi_open(), status: Rx %x Tx %x.\n",
996                            dev->name, readw(ioaddr + RxStatus), readw(ioaddr + TxStatus));
997         }
998         /* Set the timer to check for link beat. */
999         init_timer(&hmp->timer);
1000         hmp->timer.expires = RUN_AT((24*HZ)/10);                        /* 2.4 sec. */
1001         hmp->timer.data = (unsigned long)dev;
1002         hmp->timer.function = &hamachi_timer;                           /* timer handler */
1003         add_timer(&hmp->timer);
1004
1005         return 0;
1006 }
1007
1008 static inline int hamachi_tx(struct net_device *dev)
1009 {
1010         struct hamachi_private *hmp = netdev_priv(dev);
1011
1012         /* Update the dirty pointer until we find an entry that is
1013                 still owned by the card */
1014         for (; hmp->cur_tx - hmp->dirty_tx > 0; hmp->dirty_tx++) {
1015                 int entry = hmp->dirty_tx % TX_RING_SIZE;
1016                 struct sk_buff *skb;
1017
1018                 if (hmp->tx_ring[entry].status_n_length & cpu_to_le32(DescOwn))
1019                         break;
1020                 /* Free the original skb. */
1021                 skb = hmp->tx_skbuff[entry];
1022                 if (skb) {
1023                         pci_unmap_single(hmp->pci_dev,
1024                                 leXX_to_cpu(hmp->tx_ring[entry].addr),
1025                                 skb->len, PCI_DMA_TODEVICE);
1026                         dev_kfree_skb(skb);
1027                         hmp->tx_skbuff[entry] = NULL;
1028                 }
1029                 hmp->tx_ring[entry].status_n_length = 0;
1030                 if (entry >= TX_RING_SIZE-1)
1031                         hmp->tx_ring[TX_RING_SIZE-1].status_n_length |=
1032                                 cpu_to_le32(DescEndRing);
1033                 hmp->stats.tx_packets++;
1034         }
1035
1036         return 0;
1037 }
1038
1039 static void hamachi_timer(unsigned long data)
1040 {
1041         struct net_device *dev = (struct net_device *)data;
1042         struct hamachi_private *hmp = netdev_priv(dev);
1043         void __iomem *ioaddr = hmp->base;
1044         int next_tick = 10*HZ;
1045
1046         if (hamachi_debug > 2) {
1047                 printk(KERN_INFO "%s: Hamachi Autonegotiation status %4.4x, LPA "
1048                            "%4.4x.\n", dev->name, readw(ioaddr + ANStatus),
1049                            readw(ioaddr + ANLinkPartnerAbility));
1050                 printk(KERN_INFO "%s: Autonegotiation regs %4.4x %4.4x %4.4x "
1051                        "%4.4x %4.4x %4.4x.\n", dev->name,
1052                        readw(ioaddr + 0x0e0),
1053                        readw(ioaddr + 0x0e2),
1054                        readw(ioaddr + 0x0e4),
1055                        readw(ioaddr + 0x0e6),
1056                        readw(ioaddr + 0x0e8),
1057                        readw(ioaddr + 0x0eA));
1058         }
1059         /* We could do something here... nah. */
1060         hmp->timer.expires = RUN_AT(next_tick);
1061         add_timer(&hmp->timer);
1062 }
1063
1064 static void hamachi_tx_timeout(struct net_device *dev)
1065 {
1066         int i;
1067         struct hamachi_private *hmp = netdev_priv(dev);
1068         void __iomem *ioaddr = hmp->base;
1069
1070         printk(KERN_WARNING "%s: Hamachi transmit timed out, status %8.8x,"
1071                    " resetting...\n", dev->name, (int)readw(ioaddr + TxStatus));
1072
1073         {
1074                 printk(KERN_DEBUG "  Rx ring %p: ", hmp->rx_ring);
1075                 for (i = 0; i < RX_RING_SIZE; i++)
1076                         printk(" %8.8x", le32_to_cpu(hmp->rx_ring[i].status_n_length));
1077                 printk("\n"KERN_DEBUG"  Tx ring %p: ", hmp->tx_ring);
1078                 for (i = 0; i < TX_RING_SIZE; i++)
1079                         printk(" %4.4x", le32_to_cpu(hmp->tx_ring[i].status_n_length));
1080                 printk("\n");
1081         }
1082
1083         /* Reinit the hardware and make sure the Rx and Tx processes
1084                 are up and running.
1085          */
1086         dev->if_port = 0;
1087         /* The right way to do Reset. -KDU
1088          *              -Clear OWN bit in all Rx/Tx descriptors
1089          *              -Wait 50 uS for channels to go idle
1090          *              -Turn off MAC receiver
1091          *              -Issue Reset
1092          */
1093
1094         for (i = 0; i < RX_RING_SIZE; i++)
1095                 hmp->rx_ring[i].status_n_length &= cpu_to_le32(~DescOwn);
1096
1097         /* Presume that all packets in the Tx queue are gone if we have to
1098          * re-init the hardware.
1099          */
1100         for (i = 0; i < TX_RING_SIZE; i++){
1101                 struct sk_buff *skb;
1102
1103                 if (i >= TX_RING_SIZE - 1)
1104                         hmp->tx_ring[i].status_n_length =
1105                                 cpu_to_le32(DescEndRing) |
1106                                 (hmp->tx_ring[i].status_n_length &
1107                                  cpu_to_le32(0x0000ffff));
1108                 else
1109                         hmp->tx_ring[i].status_n_length &= cpu_to_le32(0x0000ffff);
1110                 skb = hmp->tx_skbuff[i];
1111                 if (skb){
1112                         pci_unmap_single(hmp->pci_dev, leXX_to_cpu(hmp->tx_ring[i].addr),
1113                                 skb->len, PCI_DMA_TODEVICE);
1114                         dev_kfree_skb(skb);
1115                         hmp->tx_skbuff[i] = NULL;
1116                 }
1117         }
1118
1119         udelay(60); /* Sleep 60 us just for safety sake */
1120         writew(0x0002, ioaddr + RxCmd); /* STOP Rx */
1121
1122         writeb(0x01, ioaddr + ChipReset);  /* Reinit the hardware */
1123
1124         hmp->tx_full = 0;
1125         hmp->cur_rx = hmp->cur_tx = 0;
1126         hmp->dirty_rx = hmp->dirty_tx = 0;
1127         /* Rx packets are also presumed lost; however, we need to make sure a
1128          * ring of buffers is in tact. -KDU
1129          */
1130         for (i = 0; i < RX_RING_SIZE; i++){
1131                 struct sk_buff *skb = hmp->rx_skbuff[i];
1132
1133                 if (skb){
1134                         pci_unmap_single(hmp->pci_dev,
1135                                 leXX_to_cpu(hmp->rx_ring[i].addr),
1136                                 hmp->rx_buf_sz, PCI_DMA_FROMDEVICE);
1137                         dev_kfree_skb(skb);
1138                         hmp->rx_skbuff[i] = NULL;
1139                 }
1140         }
1141         /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
1142         for (i = 0; i < RX_RING_SIZE; i++) {
1143                 struct sk_buff *skb = dev_alloc_skb(hmp->rx_buf_sz);
1144                 hmp->rx_skbuff[i] = skb;
1145                 if (skb == NULL)
1146                         break;
1147                 skb->dev = dev;         /* Mark as being used by this device. */
1148                 skb_reserve(skb, 2); /* 16 byte align the IP header. */
1149                 hmp->rx_ring[i].addr = cpu_to_leXX(pci_map_single(hmp->pci_dev,
1150                         skb->data, hmp->rx_buf_sz, PCI_DMA_FROMDEVICE));
1151                 hmp->rx_ring[i].status_n_length = cpu_to_le32(DescOwn |
1152                         DescEndPacket | DescIntr | (hmp->rx_buf_sz - 2));
1153         }
1154         hmp->dirty_rx = (unsigned int)(i - RX_RING_SIZE);
1155         /* Mark the last entry as wrapping the ring. */
1156         hmp->rx_ring[RX_RING_SIZE-1].status_n_length |= cpu_to_le32(DescEndRing);
1157
1158         /* Trigger an immediate transmit demand. */
1159         dev->trans_start = jiffies;
1160         hmp->stats.tx_errors++;
1161
1162         /* Restart the chip's Tx/Rx processes . */
1163         writew(0x0002, ioaddr + TxCmd); /* STOP Tx */
1164         writew(0x0001, ioaddr + TxCmd); /* START Tx */
1165         writew(0x0001, ioaddr + RxCmd); /* START Rx */
1166
1167         netif_wake_queue(dev);
1168 }
1169
1170
1171 /* Initialize the Rx and Tx rings, along with various 'dev' bits. */
1172 static void hamachi_init_ring(struct net_device *dev)
1173 {
1174         struct hamachi_private *hmp = netdev_priv(dev);
1175         int i;
1176
1177         hmp->tx_full = 0;
1178         hmp->cur_rx = hmp->cur_tx = 0;
1179         hmp->dirty_rx = hmp->dirty_tx = 0;
1180
1181 #if 0
1182         /* This is wrong.  I'm not sure what the original plan was, but this
1183          * is wrong.  An MTU of 1 gets you a buffer of 1536, while an MTU
1184          * of 1501 gets a buffer of 1533? -KDU
1185          */
1186         hmp->rx_buf_sz = (dev->mtu <= 1500 ? PKT_BUF_SZ : dev->mtu + 32);
1187 #endif
1188         /* My attempt at a reasonable correction */
1189         /* +26 gets the maximum ethernet encapsulation, +7 & ~7 because the
1190          * card needs room to do 8 byte alignment, +2 so we can reserve
1191          * the first 2 bytes, and +16 gets room for the status word from the
1192          * card.  -KDU
1193          */
1194         hmp->rx_buf_sz = (dev->mtu <= 1492 ? PKT_BUF_SZ :
1195                 (((dev->mtu+26+7) & ~7) + 2 + 16));
1196
1197         /* Initialize all Rx descriptors. */
1198         for (i = 0; i < RX_RING_SIZE; i++) {
1199                 hmp->rx_ring[i].status_n_length = 0;
1200                 hmp->rx_skbuff[i] = NULL;
1201         }
1202         /* Fill in the Rx buffers.  Handle allocation failure gracefully. */
1203         for (i = 0; i < RX_RING_SIZE; i++) {
1204                 struct sk_buff *skb = dev_alloc_skb(hmp->rx_buf_sz);
1205                 hmp->rx_skbuff[i] = skb;
1206                 if (skb == NULL)
1207                         break;
1208                 skb->dev = dev;         /* Mark as being used by this device. */
1209                 skb_reserve(skb, 2); /* 16 byte align the IP header. */
1210                 hmp->rx_ring[i].addr = cpu_to_leXX(pci_map_single(hmp->pci_dev,
1211                         skb->data, hmp->rx_buf_sz, PCI_DMA_FROMDEVICE));
1212                 /* -2 because it doesn't REALLY have that first 2 bytes -KDU */
1213                 hmp->rx_ring[i].status_n_length = cpu_to_le32(DescOwn |
1214                         DescEndPacket | DescIntr | (hmp->rx_buf_sz -2));
1215         }
1216         hmp->dirty_rx = (unsigned int)(i - RX_RING_SIZE);
1217         hmp->rx_ring[RX_RING_SIZE-1].status_n_length |= cpu_to_le32(DescEndRing);
1218
1219         for (i = 0; i < TX_RING_SIZE; i++) {
1220                 hmp->tx_skbuff[i] = NULL;
1221                 hmp->tx_ring[i].status_n_length = 0;
1222         }
1223         /* Mark the last entry of the ring */
1224         hmp->tx_ring[TX_RING_SIZE-1].status_n_length |= cpu_to_le32(DescEndRing);
1225
1226         return;
1227 }
1228
1229
1230 #ifdef TX_CHECKSUM
1231 #define csum_add(it, val) \
1232 do { \
1233     it += (u16) (val); \
1234     if (it & 0xffff0000) { \
1235         it &= 0xffff; \
1236         ++it; \
1237     } \
1238 } while (0)
1239     /* printk("add %04x --> %04x\n", val, it); \ */
1240
1241 /* uh->len already network format, do not swap */
1242 #define pseudo_csum_udp(sum,ih,uh) do { \
1243     sum = 0; \
1244     csum_add(sum, (ih)->saddr >> 16); \
1245     csum_add(sum, (ih)->saddr & 0xffff); \
1246     csum_add(sum, (ih)->daddr >> 16); \
1247     csum_add(sum, (ih)->daddr & 0xffff); \
1248     csum_add(sum, __constant_htons(IPPROTO_UDP)); \
1249     csum_add(sum, (uh)->len); \
1250 } while (0)
1251
1252 /* swap len */
1253 #define pseudo_csum_tcp(sum,ih,len) do { \
1254     sum = 0; \
1255     csum_add(sum, (ih)->saddr >> 16); \
1256     csum_add(sum, (ih)->saddr & 0xffff); \
1257     csum_add(sum, (ih)->daddr >> 16); \
1258     csum_add(sum, (ih)->daddr & 0xffff); \
1259     csum_add(sum, __constant_htons(IPPROTO_TCP)); \
1260     csum_add(sum, htons(len)); \
1261 } while (0)
1262 #endif
1263
1264 static int hamachi_start_xmit(struct sk_buff *skb, struct net_device *dev)
1265 {
1266         struct hamachi_private *hmp = netdev_priv(dev);
1267         unsigned entry;
1268         u16 status;
1269
1270         /* Ok, now make sure that the queue has space before trying to
1271                 add another skbuff.  if we return non-zero the scheduler
1272                 should interpret this as a queue full and requeue the buffer
1273                 for later.
1274          */
1275         if (hmp->tx_full) {
1276                 /* We should NEVER reach this point -KDU */
1277                 printk(KERN_WARNING "%s: Hamachi transmit queue full at slot %d.\n",dev->name, hmp->cur_tx);
1278
1279                 /* Wake the potentially-idle transmit channel. */
1280                 /* If we don't need to read status, DON'T -KDU */
1281                 status=readw(hmp->base + TxStatus);
1282                 if( !(status & 0x0001) || (status & 0x0002))
1283                         writew(0x0001, hmp->base + TxCmd);
1284                 return 1;
1285         }
1286
1287         /* Caution: the write order is important here, set the field
1288            with the "ownership" bits last. */
1289
1290         /* Calculate the next Tx descriptor entry. */
1291         entry = hmp->cur_tx % TX_RING_SIZE;
1292
1293         hmp->tx_skbuff[entry] = skb;
1294
1295 #ifdef TX_CHECKSUM
1296         {
1297             /* tack on checksum tag */
1298             u32 tagval = 0;
1299             struct ethhdr *eh = (struct ethhdr *)skb->data;
1300             if (eh->h_proto == __constant_htons(ETH_P_IP)) {
1301                 struct iphdr *ih = (struct iphdr *)((char *)eh + ETH_HLEN);
1302                 if (ih->protocol == IPPROTO_UDP) {
1303                     struct udphdr *uh
1304                       = (struct udphdr *)((char *)ih + ih->ihl*4);
1305                     u32 offset = ((unsigned char *)uh + 6) - skb->data;
1306                     u32 pseudo;
1307                     pseudo_csum_udp(pseudo, ih, uh);
1308                     pseudo = htons(pseudo);
1309                     printk("udp cksum was %04x, sending pseudo %04x\n",
1310                       uh->check, pseudo);
1311                     uh->check = 0;  /* zero out uh->check before card calc */
1312                     /*
1313                      * start at 14 (skip ethhdr), store at offset (uh->check),
1314                      * use pseudo value given.
1315                      */
1316                     tagval = (14 << 24) | (offset << 16) | pseudo;
1317                 } else if (ih->protocol == IPPROTO_TCP) {
1318                     printk("tcp, no auto cksum\n");
1319                 }
1320             }
1321             *(u32 *)skb_push(skb, 8) = tagval;
1322         }
1323 #endif
1324
1325         hmp->tx_ring[entry].addr = cpu_to_leXX(pci_map_single(hmp->pci_dev,
1326                 skb->data, skb->len, PCI_DMA_TODEVICE));
1327
1328         /* Hmmmm, could probably put a DescIntr on these, but the way
1329                 the driver is currently coded makes Tx interrupts unnecessary
1330                 since the clearing of the Tx ring is handled by the start_xmit
1331                 routine.  This organization helps mitigate the interrupts a
1332                 bit and probably renders the max_tx_latency param useless.
1333
1334                 Update: Putting a DescIntr bit on all of the descriptors and
1335                 mitigating interrupt frequency with the tx_min_pkt parameter. -KDU
1336         */
1337         if (entry >= TX_RING_SIZE-1)             /* Wrap ring */
1338                 hmp->tx_ring[entry].status_n_length = cpu_to_le32(DescOwn |
1339                         DescEndPacket | DescEndRing | DescIntr | skb->len);
1340         else
1341                 hmp->tx_ring[entry].status_n_length = cpu_to_le32(DescOwn |
1342                         DescEndPacket | DescIntr | skb->len);
1343         hmp->cur_tx++;
1344
1345         /* Non-x86 Todo: explicitly flush cache lines here. */
1346
1347         /* Wake the potentially-idle transmit channel. */
1348         /* If we don't need to read status, DON'T -KDU */
1349         status=readw(hmp->base + TxStatus);
1350         if( !(status & 0x0001) || (status & 0x0002))
1351                 writew(0x0001, hmp->base + TxCmd);
1352
1353         /* Immediately before returning, let's clear as many entries as we can. */
1354         hamachi_tx(dev);
1355
1356         /* We should kick the bottom half here, since we are not accepting
1357          * interrupts with every packet.  i.e. realize that Gigabit ethernet
1358          * can transmit faster than ordinary machines can load packets;
1359          * hence, any packet that got put off because we were in the transmit
1360          * routine should IMMEDIATELY get a chance to be re-queued. -KDU
1361          */
1362         if ((hmp->cur_tx - hmp->dirty_tx) < (TX_RING_SIZE - 4))
1363                 netif_wake_queue(dev);  /* Typical path */
1364         else {
1365                 hmp->tx_full = 1;
1366                 netif_stop_queue(dev);
1367         }
1368         dev->trans_start = jiffies;
1369
1370         if (hamachi_debug > 4) {
1371                 printk(KERN_DEBUG "%s: Hamachi transmit frame #%d queued in slot %d.\n",
1372                            dev->name, hmp->cur_tx, entry);
1373         }
1374         return 0;
1375 }
1376
1377 /* The interrupt handler does all of the Rx thread work and cleans up
1378    after the Tx thread. */
1379 static irqreturn_t hamachi_interrupt(int irq, void *dev_instance)
1380 {
1381         struct net_device *dev = dev_instance;
1382         struct hamachi_private *hmp = netdev_priv(dev);
1383         void __iomem *ioaddr = hmp->base;
1384         long boguscnt = max_interrupt_work;
1385         int handled = 0;
1386
1387 #ifndef final_version                   /* Can never occur. */
1388         if (dev == NULL) {
1389                 printk (KERN_ERR "hamachi_interrupt(): irq %d for unknown device.\n", irq);
1390                 return IRQ_NONE;
1391         }
1392 #endif
1393
1394         spin_lock(&hmp->lock);
1395
1396         do {
1397                 u32 intr_status = readl(ioaddr + InterruptClear);
1398
1399                 if (hamachi_debug > 4)
1400                         printk(KERN_DEBUG "%s: Hamachi interrupt, status %4.4x.\n",
1401                                    dev->name, intr_status);
1402
1403                 if (intr_status == 0)
1404                         break;
1405
1406                 handled = 1;
1407
1408                 if (intr_status & IntrRxDone)
1409                         hamachi_rx(dev);
1410
1411                 if (intr_status & IntrTxDone){
1412                         /* This code should RARELY need to execute. After all, this is
1413                          * a gigabit link, it should consume packets as fast as we put
1414                          * them in AND we clear the Tx ring in hamachi_start_xmit().
1415                          */
1416                         if (hmp->tx_full){
1417                                 for (; hmp->cur_tx - hmp->dirty_tx > 0; hmp->dirty_tx++){
1418                                         int entry = hmp->dirty_tx % TX_RING_SIZE;
1419                                         struct sk_buff *skb;
1420
1421                                         if (hmp->tx_ring[entry].status_n_length & cpu_to_le32(DescOwn))
1422                                                 break;
1423                                         skb = hmp->tx_skbuff[entry];
1424                                         /* Free the original skb. */
1425                                         if (skb){
1426                                                 pci_unmap_single(hmp->pci_dev,
1427                                                         leXX_to_cpu(hmp->tx_ring[entry].addr),
1428                                                         skb->len,
1429                                                         PCI_DMA_TODEVICE);
1430                                                 dev_kfree_skb_irq(skb);
1431                                                 hmp->tx_skbuff[entry] = NULL;
1432                                         }
1433                                         hmp->tx_ring[entry].status_n_length = 0;
1434                                         if (entry >= TX_RING_SIZE-1)
1435                                                 hmp->tx_ring[TX_RING_SIZE-1].status_n_length |=
1436                                                         cpu_to_le32(DescEndRing);
1437                                         hmp->stats.tx_packets++;
1438                                 }
1439                                 if (hmp->cur_tx - hmp->dirty_tx < TX_RING_SIZE - 4){
1440                                         /* The ring is no longer full */
1441                                         hmp->tx_full = 0;
1442                                         netif_wake_queue(dev);
1443                                 }
1444                         } else {
1445                                 netif_wake_queue(dev);
1446                         }
1447                 }
1448
1449
1450                 /* Abnormal error summary/uncommon events handlers. */
1451                 if (intr_status &
1452                         (IntrTxPCIFault | IntrTxPCIErr | IntrRxPCIFault | IntrRxPCIErr |
1453                          LinkChange | NegotiationChange | StatsMax))
1454                         hamachi_error(dev, intr_status);
1455
1456                 if (--boguscnt < 0) {
1457                         printk(KERN_WARNING "%s: Too much work at interrupt, status=0x%4.4x.\n",
1458                                    dev->name, intr_status);
1459                         break;
1460                 }
1461         } while (1);
1462
1463         if (hamachi_debug > 3)
1464                 printk(KERN_DEBUG "%s: exiting interrupt, status=%#4.4x.\n",
1465                            dev->name, readl(ioaddr + IntrStatus));
1466
1467 #ifndef final_version
1468         /* Code that should never be run!  Perhaps remove after testing.. */
1469         {
1470                 static int stopit = 10;
1471                 if (dev->start == 0  &&  --stopit < 0) {
1472                         printk(KERN_ERR "%s: Emergency stop, looping startup interrupt.\n",
1473                                    dev->name);
1474                         free_irq(irq, dev);
1475                 }
1476         }
1477 #endif
1478
1479         spin_unlock(&hmp->lock);
1480         return IRQ_RETVAL(handled);
1481 }
1482
1483 /* This routine is logically part of the interrupt handler, but separated
1484    for clarity and better register allocation. */
1485 static int hamachi_rx(struct net_device *dev)
1486 {
1487         struct hamachi_private *hmp = netdev_priv(dev);
1488         int entry = hmp->cur_rx % RX_RING_SIZE;
1489         int boguscnt = (hmp->dirty_rx + RX_RING_SIZE) - hmp->cur_rx;
1490
1491         if (hamachi_debug > 4) {
1492                 printk(KERN_DEBUG " In hamachi_rx(), entry %d status %4.4x.\n",
1493                            entry, hmp->rx_ring[entry].status_n_length);
1494         }
1495
1496         /* If EOP is set on the next entry, it's a new packet. Send it up. */
1497         while (1) {
1498                 struct hamachi_desc *desc = &(hmp->rx_ring[entry]);
1499                 u32 desc_status = le32_to_cpu(desc->status_n_length);
1500                 u16 data_size = desc_status;    /* Implicit truncate */
1501                 u8 *buf_addr;
1502                 s32 frame_status;
1503
1504                 if (desc_status & DescOwn)
1505                         break;
1506                 pci_dma_sync_single_for_cpu(hmp->pci_dev,
1507                                             leXX_to_cpu(desc->addr),
1508                                             hmp->rx_buf_sz,
1509                                             PCI_DMA_FROMDEVICE);
1510                 buf_addr = (u8 *) hmp->rx_skbuff[entry]->data;
1511                 frame_status = le32_to_cpu(get_unaligned((__le32*)&(buf_addr[data_size - 12])));
1512                 if (hamachi_debug > 4)
1513                         printk(KERN_DEBUG "  hamachi_rx() status was %8.8x.\n",
1514                                 frame_status);
1515                 if (--boguscnt < 0)
1516                         break;
1517                 if ( ! (desc_status & DescEndPacket)) {
1518                         printk(KERN_WARNING "%s: Oversized Ethernet frame spanned "
1519                                    "multiple buffers, entry %#x length %d status %4.4x!\n",
1520                                    dev->name, hmp->cur_rx, data_size, desc_status);
1521                         printk(KERN_WARNING "%s: Oversized Ethernet frame %p vs %p.\n",
1522                                    dev->name, desc, &hmp->rx_ring[hmp->cur_rx % RX_RING_SIZE]);
1523                         printk(KERN_WARNING "%s: Oversized Ethernet frame -- next status %x/%x last status %x.\n",
1524                                    dev->name,
1525                                    le32_to_cpu(hmp->rx_ring[(hmp->cur_rx+1) % RX_RING_SIZE].status_n_length) & 0xffff0000,
1526                                    le32_to_cpu(hmp->rx_ring[(hmp->cur_rx+1) % RX_RING_SIZE].status_n_length) & 0x0000ffff,
1527                                    le32_to_cpu(hmp->rx_ring[(hmp->cur_rx-1) % RX_RING_SIZE].status_n_length));
1528                         hmp->stats.rx_length_errors++;
1529                 } /* else  Omit for prototype errata??? */
1530                 if (frame_status & 0x00380000) {
1531                         /* There was an error. */
1532                         if (hamachi_debug > 2)
1533                                 printk(KERN_DEBUG "  hamachi_rx() Rx error was %8.8x.\n",
1534                                            frame_status);
1535                         hmp->stats.rx_errors++;
1536                         if (frame_status & 0x00600000) hmp->stats.rx_length_errors++;
1537                         if (frame_status & 0x00080000) hmp->stats.rx_frame_errors++;
1538                         if (frame_status & 0x00100000) hmp->stats.rx_crc_errors++;
1539                         if (frame_status < 0) hmp->stats.rx_dropped++;
1540                 } else {
1541                         struct sk_buff *skb;
1542                         /* Omit CRC */
1543                         u16 pkt_len = (frame_status & 0x07ff) - 4;
1544 #ifdef RX_CHECKSUM
1545                         u32 pfck = *(u32 *) &buf_addr[data_size - 8];
1546 #endif
1547
1548
1549 #ifndef final_version
1550                         if (hamachi_debug > 4)
1551                                 printk(KERN_DEBUG "  hamachi_rx() normal Rx pkt length %d"
1552                                            " of %d, bogus_cnt %d.\n",
1553                                            pkt_len, data_size, boguscnt);
1554                         if (hamachi_debug > 5)
1555                                 printk(KERN_DEBUG"%s:  rx status %8.8x %8.8x %8.8x %8.8x %8.8x.\n",
1556                                            dev->name,
1557                                            *(s32*)&(buf_addr[data_size - 20]),
1558                                            *(s32*)&(buf_addr[data_size - 16]),
1559                                            *(s32*)&(buf_addr[data_size - 12]),
1560                                            *(s32*)&(buf_addr[data_size - 8]),
1561                                            *(s32*)&(buf_addr[data_size - 4]));
1562 #endif
1563                         /* Check if the packet is long enough to accept without copying
1564                            to a minimally-sized skbuff. */
1565                         if (pkt_len < rx_copybreak
1566                                 && (skb = dev_alloc_skb(pkt_len + 2)) != NULL) {
1567 #ifdef RX_CHECKSUM
1568                                 printk(KERN_ERR "%s: rx_copybreak non-zero "
1569                                   "not good with RX_CHECKSUM\n", dev->name);
1570 #endif
1571                                 skb_reserve(skb, 2);    /* 16 byte align the IP header */
1572                                 pci_dma_sync_single_for_cpu(hmp->pci_dev,
1573                                                             leXX_to_cpu(hmp->rx_ring[entry].addr),
1574                                                             hmp->rx_buf_sz,
1575                                                             PCI_DMA_FROMDEVICE);
1576                                 /* Call copy + cksum if available. */
1577 #if 1 || USE_IP_COPYSUM
1578                                 skb_copy_to_linear_data(skb,
1579                                         hmp->rx_skbuff[entry]->data, pkt_len);
1580                                 skb_put(skb, pkt_len);
1581 #else
1582                                 memcpy(skb_put(skb, pkt_len), hmp->rx_ring_dma
1583                                         + entry*sizeof(*desc), pkt_len);
1584 #endif
1585                                 pci_dma_sync_single_for_device(hmp->pci_dev,
1586                                                                leXX_to_cpu(hmp->rx_ring[entry].addr),
1587                                                                hmp->rx_buf_sz,
1588                                                                PCI_DMA_FROMDEVICE);
1589                         } else {
1590                                 pci_unmap_single(hmp->pci_dev,
1591                                                  leXX_to_cpu(hmp->rx_ring[entry].addr),
1592                                                  hmp->rx_buf_sz, PCI_DMA_FROMDEVICE);
1593                                 skb_put(skb = hmp->rx_skbuff[entry], pkt_len);
1594                                 hmp->rx_skbuff[entry] = NULL;
1595                         }
1596                         skb->protocol = eth_type_trans(skb, dev);
1597
1598
1599 #ifdef RX_CHECKSUM
1600                         /* TCP or UDP on ipv4, DIX encoding */
1601                         if (pfck>>24 == 0x91 || pfck>>24 == 0x51) {
1602                                 struct iphdr *ih = (struct iphdr *) skb->data;
1603                                 /* Check that IP packet is at least 46 bytes, otherwise,
1604                                  * there may be pad bytes included in the hardware checksum.
1605                                  * This wouldn't happen if everyone padded with 0.
1606                                  */
1607                                 if (ntohs(ih->tot_len) >= 46){
1608                                         /* don't worry about frags */
1609                                         if (!(ih->frag_off & __constant_htons(IP_MF|IP_OFFSET))) {
1610                                                 u32 inv = *(u32 *) &buf_addr[data_size - 16];
1611                                                 u32 *p = (u32 *) &buf_addr[data_size - 20];
1612                                                 register u32 crc, p_r, p_r1;
1613
1614                                                 if (inv & 4) {
1615                                                         inv &= ~4;
1616                                                         --p;
1617                                                 }
1618                                                 p_r = *p;
1619                                                 p_r1 = *(p-1);
1620                                                 switch (inv) {
1621                                                         case 0:
1622                                                                 crc = (p_r & 0xffff) + (p_r >> 16);
1623                                                                 break;
1624                                                         case 1:
1625                                                                 crc = (p_r >> 16) + (p_r & 0xffff)
1626                                                                         + (p_r1 >> 16 & 0xff00);
1627                                                                 break;
1628                                                         case 2:
1629                                                                 crc = p_r + (p_r1 >> 16);
1630                                                                 break;
1631                                                         case 3:
1632                                                                 crc = p_r + (p_r1 & 0xff00) + (p_r1 >> 16);
1633                                                                 break;
1634                                                         default:        /*NOTREACHED*/ crc = 0;
1635                                                 }
1636                                                 if (crc & 0xffff0000) {
1637                                                         crc &= 0xffff;
1638                                                         ++crc;
1639                                                 }
1640                                                 /* tcp/udp will add in pseudo */
1641                                                 skb->csum = ntohs(pfck & 0xffff);
1642                                                 if (skb->csum > crc)
1643                                                         skb->csum -= crc;
1644                                                 else
1645                                                         skb->csum += (~crc & 0xffff);
1646                                                 /*
1647                                                 * could do the pseudo myself and return
1648                                                 * CHECKSUM_UNNECESSARY
1649                                                 */
1650                                                 skb->ip_summed = CHECKSUM_COMPLETE;
1651                                         }
1652                                 }
1653                         }
1654 #endif  /* RX_CHECKSUM */
1655
1656                         netif_rx(skb);
1657                         dev->last_rx = jiffies;
1658                         hmp->stats.rx_packets++;
1659                 }
1660                 entry = (++hmp->cur_rx) % RX_RING_SIZE;
1661         }
1662
1663         /* Refill the Rx ring buffers. */
1664         for (; hmp->cur_rx - hmp->dirty_rx > 0; hmp->dirty_rx++) {
1665                 struct hamachi_desc *desc;
1666
1667                 entry = hmp->dirty_rx % RX_RING_SIZE;
1668                 desc = &(hmp->rx_ring[entry]);
1669                 if (hmp->rx_skbuff[entry] == NULL) {
1670                         struct sk_buff *skb = dev_alloc_skb(hmp->rx_buf_sz);
1671
1672                         hmp->rx_skbuff[entry] = skb;
1673                         if (skb == NULL)
1674                                 break;          /* Better luck next round. */
1675                         skb->dev = dev;         /* Mark as being used by this device. */
1676                         skb_reserve(skb, 2);    /* Align IP on 16 byte boundaries */
1677                         desc->addr = cpu_to_leXX(pci_map_single(hmp->pci_dev,
1678                                 skb->data, hmp->rx_buf_sz, PCI_DMA_FROMDEVICE));
1679                 }
1680                 desc->status_n_length = cpu_to_le32(hmp->rx_buf_sz);
1681                 if (entry >= RX_RING_SIZE-1)
1682                         desc->status_n_length |= cpu_to_le32(DescOwn |
1683                                 DescEndPacket | DescEndRing | DescIntr);
1684                 else
1685                         desc->status_n_length |= cpu_to_le32(DescOwn |
1686                                 DescEndPacket | DescIntr);
1687         }
1688
1689         /* Restart Rx engine if stopped. */
1690         /* If we don't need to check status, don't. -KDU */
1691         if (readw(hmp->base + RxStatus) & 0x0002)
1692                 writew(0x0001, hmp->base + RxCmd);
1693
1694         return 0;
1695 }
1696
1697 /* This is more properly named "uncommon interrupt events", as it covers more
1698    than just errors. */
1699 static void hamachi_error(struct net_device *dev, int intr_status)
1700 {
1701         struct hamachi_private *hmp = netdev_priv(dev);
1702         void __iomem *ioaddr = hmp->base;
1703
1704         if (intr_status & (LinkChange|NegotiationChange)) {
1705                 if (hamachi_debug > 1)
1706                         printk(KERN_INFO "%s: Link changed: AutoNegotiation Ctrl"
1707                                    " %4.4x, Status %4.4x %4.4x Intr status %4.4x.\n",
1708                                    dev->name, readw(ioaddr + 0x0E0), readw(ioaddr + 0x0E2),
1709                                    readw(ioaddr + ANLinkPartnerAbility),
1710                                    readl(ioaddr + IntrStatus));
1711                 if (readw(ioaddr + ANStatus) & 0x20)
1712                         writeb(0x01, ioaddr + LEDCtrl);
1713                 else
1714                         writeb(0x03, ioaddr + LEDCtrl);
1715         }
1716         if (intr_status & StatsMax) {
1717                 hamachi_get_stats(dev);
1718                 /* Read the overflow bits to clear. */
1719                 readl(ioaddr + 0x370);
1720                 readl(ioaddr + 0x3F0);
1721         }
1722         if ((intr_status & ~(LinkChange|StatsMax|NegotiationChange|IntrRxDone|IntrTxDone))
1723                 && hamachi_debug)
1724                 printk(KERN_ERR "%s: Something Wicked happened! %4.4x.\n",
1725                            dev->name, intr_status);
1726         /* Hmmmmm, it's not clear how to recover from PCI faults. */
1727         if (intr_status & (IntrTxPCIErr | IntrTxPCIFault))
1728                 hmp->stats.tx_fifo_errors++;
1729         if (intr_status & (IntrRxPCIErr | IntrRxPCIFault))
1730                 hmp->stats.rx_fifo_errors++;
1731 }
1732
1733 static int hamachi_close(struct net_device *dev)
1734 {
1735         struct hamachi_private *hmp = netdev_priv(dev);
1736         void __iomem *ioaddr = hmp->base;
1737         struct sk_buff *skb;
1738         int i;
1739
1740         netif_stop_queue(dev);
1741
1742         if (hamachi_debug > 1) {
1743                 printk(KERN_DEBUG "%s: Shutting down ethercard, status was Tx %4.4x Rx %4.4x Int %2.2x.\n",
1744                            dev->name, readw(ioaddr + TxStatus),
1745                            readw(ioaddr + RxStatus), readl(ioaddr + IntrStatus));
1746                 printk(KERN_DEBUG "%s: Queue pointers were Tx %d / %d,  Rx %d / %d.\n",
1747                            dev->name, hmp->cur_tx, hmp->dirty_tx, hmp->cur_rx, hmp->dirty_rx);
1748         }
1749
1750         /* Disable interrupts by clearing the interrupt mask. */
1751         writel(0x0000, ioaddr + InterruptEnable);
1752
1753         /* Stop the chip's Tx and Rx processes. */
1754         writel(2, ioaddr + RxCmd);
1755         writew(2, ioaddr + TxCmd);
1756
1757 #ifdef __i386__
1758         if (hamachi_debug > 2) {
1759                 printk("\n"KERN_DEBUG"  Tx ring at %8.8x:\n",
1760                            (int)hmp->tx_ring_dma);
1761                 for (i = 0; i < TX_RING_SIZE; i++)
1762                         printk(" %c #%d desc. %8.8x %8.8x.\n",
1763                                    readl(ioaddr + TxCurPtr) == (long)&hmp->tx_ring[i] ? '>' : ' ',
1764                                    i, hmp->tx_ring[i].status_n_length, hmp->tx_ring[i].addr);
1765                 printk("\n"KERN_DEBUG "  Rx ring %8.8x:\n",
1766                            (int)hmp->rx_ring_dma);
1767                 for (i = 0; i < RX_RING_SIZE; i++) {
1768                         printk(KERN_DEBUG " %c #%d desc. %4.4x %8.8x\n",
1769                                    readl(ioaddr + RxCurPtr) == (long)&hmp->rx_ring[i] ? '>' : ' ',
1770                                    i, hmp->rx_ring[i].status_n_length, hmp->rx_ring[i].addr);
1771                         if (hamachi_debug > 6) {
1772                                 if (*(u8*)hmp->rx_skbuff[i]->data != 0x69) {
1773                                         u16 *addr = (u16 *)
1774                                                 hmp->rx_skbuff[i]->data;
1775                                         int j;
1776
1777                                         for (j = 0; j < 0x50; j++)
1778                                                 printk(" %4.4x", addr[j]);
1779                                         printk("\n");
1780                                 }
1781                         }
1782                 }
1783         }
1784 #endif /* __i386__ debugging only */
1785
1786         free_irq(dev->irq, dev);
1787
1788         del_timer_sync(&hmp->timer);
1789
1790         /* Free all the skbuffs in the Rx queue. */
1791         for (i = 0; i < RX_RING_SIZE; i++) {
1792                 skb = hmp->rx_skbuff[i];
1793                 hmp->rx_ring[i].status_n_length = 0;
1794                 if (skb) {
1795                         pci_unmap_single(hmp->pci_dev,
1796                                 leXX_to_cpu(hmp->rx_ring[i].addr),
1797                                 hmp->rx_buf_sz, PCI_DMA_FROMDEVICE);
1798                         dev_kfree_skb(skb);
1799                         hmp->rx_skbuff[i] = NULL;
1800                 }
1801                 hmp->rx_ring[i].addr = cpu_to_leXX(0xBADF00D0); /* An invalid address. */
1802         }
1803         for (i = 0; i < TX_RING_SIZE; i++) {
1804                 skb = hmp->tx_skbuff[i];
1805                 if (skb) {
1806                         pci_unmap_single(hmp->pci_dev,
1807                                 leXX_to_cpu(hmp->tx_ring[i].addr),
1808                                 skb->len, PCI_DMA_TODEVICE);
1809                         dev_kfree_skb(skb);
1810                         hmp->tx_skbuff[i] = NULL;
1811                 }
1812         }
1813
1814         writeb(0x00, ioaddr + LEDCtrl);
1815
1816         return 0;
1817 }
1818
1819 static struct net_device_stats *hamachi_get_stats(struct net_device *dev)
1820 {
1821         struct hamachi_private *hmp = netdev_priv(dev);
1822         void __iomem *ioaddr = hmp->base;
1823
1824         /* We should lock this segment of code for SMP eventually, although
1825            the vulnerability window is very small and statistics are
1826            non-critical. */
1827         /* Ok, what goes here?  This appears to be stuck at 21 packets
1828            according to ifconfig.  It does get incremented in hamachi_tx(),
1829            so I think I'll comment it out here and see if better things
1830            happen.
1831         */
1832         /* hmp->stats.tx_packets        = readl(ioaddr + 0x000); */
1833
1834         hmp->stats.rx_bytes = readl(ioaddr + 0x330); /* Total Uni+Brd+Multi */
1835         hmp->stats.tx_bytes = readl(ioaddr + 0x3B0); /* Total Uni+Brd+Multi */
1836         hmp->stats.multicast            = readl(ioaddr + 0x320); /* Multicast Rx */
1837
1838         hmp->stats.rx_length_errors     = readl(ioaddr + 0x368); /* Over+Undersized */
1839         hmp->stats.rx_over_errors       = readl(ioaddr + 0x35C); /* Jabber */
1840         hmp->stats.rx_crc_errors        = readl(ioaddr + 0x360); /* Jabber */
1841         hmp->stats.rx_frame_errors      = readl(ioaddr + 0x364); /* Symbol Errs */
1842         hmp->stats.rx_missed_errors     = readl(ioaddr + 0x36C); /* Dropped */
1843
1844         return &hmp->stats;
1845 }
1846
1847 static void set_rx_mode(struct net_device *dev)
1848 {
1849         struct hamachi_private *hmp = netdev_priv(dev);
1850         void __iomem *ioaddr = hmp->base;
1851
1852         if (dev->flags & IFF_PROMISC) {                 /* Set promiscuous. */
1853                 writew(0x000F, ioaddr + AddrMode);
1854         } else if ((dev->mc_count > 63)  ||  (dev->flags & IFF_ALLMULTI)) {
1855                 /* Too many to match, or accept all multicasts. */
1856                 writew(0x000B, ioaddr + AddrMode);
1857         } else if (dev->mc_count > 0) { /* Must use the CAM filter. */
1858                 struct dev_mc_list *mclist;
1859                 int i;
1860                 for (i = 0, mclist = dev->mc_list; mclist && i < dev->mc_count;
1861                          i++, mclist = mclist->next) {
1862                         writel(*(u32*)(mclist->dmi_addr), ioaddr + 0x100 + i*8);
1863                         writel(0x20000 | (*(u16*)&mclist->dmi_addr[4]),
1864                                    ioaddr + 0x104 + i*8);
1865                 }
1866                 /* Clear remaining entries. */
1867                 for (; i < 64; i++)
1868                         writel(0, ioaddr + 0x104 + i*8);
1869                 writew(0x0003, ioaddr + AddrMode);
1870         } else {                                        /* Normal, unicast/broadcast-only mode. */
1871                 writew(0x0001, ioaddr + AddrMode);
1872         }
1873 }
1874
1875 static int check_if_running(struct net_device *dev)
1876 {
1877         if (!netif_running(dev))
1878                 return -EINVAL;
1879         return 0;
1880 }
1881
1882 static void hamachi_get_drvinfo(struct net_device *dev, struct ethtool_drvinfo *info)
1883 {
1884         struct hamachi_private *np = netdev_priv(dev);
1885         strcpy(info->driver, DRV_NAME);
1886         strcpy(info->version, DRV_VERSION);
1887         strcpy(info->bus_info, pci_name(np->pci_dev));
1888 }
1889
1890 static int hamachi_get_settings(struct net_device *dev, struct ethtool_cmd *ecmd)
1891 {
1892         struct hamachi_private *np = netdev_priv(dev);
1893         spin_lock_irq(&np->lock);
1894         mii_ethtool_gset(&np->mii_if, ecmd);
1895         spin_unlock_irq(&np->lock);
1896         return 0;
1897 }
1898
1899 static int hamachi_set_settings(struct net_device *dev, struct ethtool_cmd *ecmd)
1900 {
1901         struct hamachi_private *np = netdev_priv(dev);
1902         int res;
1903         spin_lock_irq(&np->lock);
1904         res = mii_ethtool_sset(&np->mii_if, ecmd);
1905         spin_unlock_irq(&np->lock);
1906         return res;
1907 }
1908
1909 static int hamachi_nway_reset(struct net_device *dev)
1910 {
1911         struct hamachi_private *np = netdev_priv(dev);
1912         return mii_nway_restart(&np->mii_if);
1913 }
1914
1915 static u32 hamachi_get_link(struct net_device *dev)
1916 {
1917         struct hamachi_private *np = netdev_priv(dev);
1918         return mii_link_ok(&np->mii_if);
1919 }
1920
1921 static const struct ethtool_ops ethtool_ops = {
1922         .begin = check_if_running,
1923         .get_drvinfo = hamachi_get_drvinfo,
1924         .get_settings = hamachi_get_settings,
1925         .set_settings = hamachi_set_settings,
1926         .nway_reset = hamachi_nway_reset,
1927         .get_link = hamachi_get_link,
1928 };
1929
1930 static const struct ethtool_ops ethtool_ops_no_mii = {
1931         .begin = check_if_running,
1932         .get_drvinfo = hamachi_get_drvinfo,
1933 };
1934
1935 static int netdev_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
1936 {
1937         struct hamachi_private *np = netdev_priv(dev);
1938         struct mii_ioctl_data *data = if_mii(rq);
1939         int rc;
1940
1941         if (!netif_running(dev))
1942                 return -EINVAL;
1943
1944         if (cmd == (SIOCDEVPRIVATE+3)) { /* set rx,tx intr params */
1945                 u32 *d = (u32 *)&rq->ifr_ifru;
1946                 /* Should add this check here or an ordinary user can do nasty
1947                  * things. -KDU
1948                  *
1949                  * TODO: Shut down the Rx and Tx engines while doing this.
1950                  */
1951                 if (!capable(CAP_NET_ADMIN))
1952                         return -EPERM;
1953                 writel(d[0], np->base + TxIntrCtrl);
1954                 writel(d[1], np->base + RxIntrCtrl);
1955                 printk(KERN_NOTICE "%s: tx %08x, rx %08x intr\n", dev->name,
1956                   (u32) readl(np->base + TxIntrCtrl),
1957                   (u32) readl(np->base + RxIntrCtrl));
1958                 rc = 0;
1959         }
1960
1961         else {
1962                 spin_lock_irq(&np->lock);
1963                 rc = generic_mii_ioctl(&np->mii_if, data, cmd, NULL);
1964                 spin_unlock_irq(&np->lock);
1965         }
1966
1967         return rc;
1968 }
1969
1970
1971 static void __devexit hamachi_remove_one (struct pci_dev *pdev)
1972 {
1973         struct net_device *dev = pci_get_drvdata(pdev);
1974
1975         if (dev) {
1976                 struct hamachi_private *hmp = netdev_priv(dev);
1977
1978                 pci_free_consistent(pdev, RX_TOTAL_SIZE, hmp->rx_ring,
1979                         hmp->rx_ring_dma);
1980                 pci_free_consistent(pdev, TX_TOTAL_SIZE, hmp->tx_ring,
1981                         hmp->tx_ring_dma);
1982                 unregister_netdev(dev);
1983                 iounmap(hmp->base);
1984                 free_netdev(dev);
1985                 pci_release_regions(pdev);
1986                 pci_set_drvdata(pdev, NULL);
1987         }
1988 }
1989
1990 static struct pci_device_id hamachi_pci_tbl[] = {
1991         { 0x1318, 0x0911, PCI_ANY_ID, PCI_ANY_ID, },
1992         { 0, }
1993 };
1994 MODULE_DEVICE_TABLE(pci, hamachi_pci_tbl);
1995
1996 static struct pci_driver hamachi_driver = {
1997         .name           = DRV_NAME,
1998         .id_table       = hamachi_pci_tbl,
1999         .probe          = hamachi_init_one,
2000         .remove         = __devexit_p(hamachi_remove_one),
2001 };
2002
2003 static int __init hamachi_init (void)
2004 {
2005 /* when a module, this is printed whether or not devices are found in probe */
2006 #ifdef MODULE
2007         printk(version);
2008 #endif
2009         return pci_register_driver(&hamachi_driver);
2010 }
2011
2012 static void __exit hamachi_exit (void)
2013 {
2014         pci_unregister_driver(&hamachi_driver);
2015 }
2016
2017
2018 module_init(hamachi_init);
2019 module_exit(hamachi_exit);