2  * Copyright (c) 2006 Chelsio, Inc. All rights reserved.
 
   4  * This software is available to you under a choice of one of two
 
   5  * licenses.  You may choose to be licensed under the terms of the GNU
 
   6  * General Public License (GPL) Version 2, available from the file
 
   7  * COPYING in the main directory of this source tree, or the
 
   8  * OpenIB.org BSD license below:
 
  10  *     Redistribution and use in source and binary forms, with or
 
  11  *     without modification, are permitted provided that the following
 
  14  *      - Redistributions of source code must retain the above
 
  15  *        copyright notice, this list of conditions and the following
 
  18  *      - Redistributions in binary form must reproduce the above
 
  19  *        copyright notice, this list of conditions and the following
 
  20  *        disclaimer in the documentation and/or other materials
 
  21  *        provided with the distribution.
 
  23  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND,
 
  24  * EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF
 
  25  * MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND
 
  26  * NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS
 
  27  * BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN
 
  28  * ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
 
  29  * CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
 
  36 #include <linux/pci.h>
 
  37 #include <linux/timer.h>
 
  38 #include "firmware_exports.h"
 
  41 #define T3_MAX_INLINE   64
 
  43 #define Q_EMPTY(rptr,wptr) ((rptr)==(wptr))
 
  44 #define Q_FULL(rptr,wptr,size_log2)  ( (((wptr)-(rptr))>>(size_log2)) && \
 
  46 #define Q_GENBIT(ptr,size_log2) (!(((ptr)>>size_log2)&0x1))
 
  47 #define Q_FREECNT(rptr,wptr,size_log2) ((1UL<<size_log2)-((wptr)-(rptr)))
 
  48 #define Q_COUNT(rptr,wptr) ((wptr)-(rptr))
 
  49 #define Q_PTR2IDX(ptr,size_log2) (ptr & ((1UL<<size_log2)-1))
 
  51 static inline void ring_doorbell(void __iomem *doorbell, u32 qpid)
 
  53         writel(((1<<31) | qpid), doorbell);
 
  56 #define SEQ32_GE(x,y) (!( (((u32) (x)) - ((u32) (y))) & 0x80000000 ))
 
  59         T3_COMPLETION_FLAG = 0x01,
 
  60         T3_NOTIFY_FLAG = 0x02,
 
  61         T3_SOLICITED_EVENT_FLAG = 0x04,
 
  62         T3_READ_FENCE_FLAG = 0x08,
 
  63         T3_LOCAL_FENCE_FLAG = 0x10
 
  64 } __attribute__ ((packed));
 
  67         T3_WR_BP = FW_WROPCODE_RI_BYPASS,
 
  68         T3_WR_SEND = FW_WROPCODE_RI_SEND,
 
  69         T3_WR_WRITE = FW_WROPCODE_RI_RDMA_WRITE,
 
  70         T3_WR_READ = FW_WROPCODE_RI_RDMA_READ,
 
  71         T3_WR_INV_STAG = FW_WROPCODE_RI_LOCAL_INV,
 
  72         T3_WR_BIND = FW_WROPCODE_RI_BIND_MW,
 
  73         T3_WR_RCV = FW_WROPCODE_RI_RECEIVE,
 
  74         T3_WR_INIT = FW_WROPCODE_RI_RDMA_INIT,
 
  75         T3_WR_QP_MOD = FW_WROPCODE_RI_MODIFY_QP
 
  76 } __attribute__ ((packed));
 
  79         T3_RDMA_WRITE,          /* IETF RDMAP v1.0 ... */
 
  87         T3_RDMA_INIT,           /* CHELSIO RI specific ... */
 
  93 } __attribute__ ((packed));
 
  95 static inline enum t3_rdma_opcode wr2opcode(enum t3_wr_opcode wrop)
 
  98                 case T3_WR_BP: return T3_BYPASS;
 
  99                 case T3_WR_SEND: return T3_SEND;
 
 100                 case T3_WR_WRITE: return T3_RDMA_WRITE;
 
 101                 case T3_WR_READ: return T3_READ_REQ;
 
 102                 case T3_WR_INV_STAG: return T3_LOCAL_INV;
 
 103                 case T3_WR_BIND: return T3_BIND_MW;
 
 104                 case T3_WR_INIT: return T3_RDMA_INIT;
 
 105                 case T3_WR_QP_MOD: return T3_QP_MOD;
 
 112 /* Work request id */
 
 121 #define WRID(wrid)              (wrid.id1)
 
 122 #define WRID_GEN(wrid)          (wrid.id0.wr_gen)
 
 123 #define WRID_IDX(wrid)          (wrid.id0.wr_idx)
 
 124 #define WRID_LO(wrid)           (wrid.id0.wr_lo)
 
 127         __be32 op_seop_flags;
 
 131 #define S_FW_RIWR_OP            24
 
 132 #define M_FW_RIWR_OP            0xff
 
 133 #define V_FW_RIWR_OP(x)         ((x) << S_FW_RIWR_OP)
 
 134 #define G_FW_RIWR_OP(x) ((((x) >> S_FW_RIWR_OP)) & M_FW_RIWR_OP)
 
 136 #define S_FW_RIWR_SOPEOP        22
 
 137 #define M_FW_RIWR_SOPEOP        0x3
 
 138 #define V_FW_RIWR_SOPEOP(x)     ((x) << S_FW_RIWR_SOPEOP)
 
 140 #define S_FW_RIWR_FLAGS         8
 
 141 #define M_FW_RIWR_FLAGS         0x3fffff
 
 142 #define V_FW_RIWR_FLAGS(x)      ((x) << S_FW_RIWR_FLAGS)
 
 143 #define G_FW_RIWR_FLAGS(x)      ((((x) >> S_FW_RIWR_FLAGS)) & M_FW_RIWR_FLAGS)
 
 145 #define S_FW_RIWR_TID           8
 
 146 #define V_FW_RIWR_TID(x)        ((x) << S_FW_RIWR_TID)
 
 148 #define S_FW_RIWR_LEN           0
 
 149 #define V_FW_RIWR_LEN(x)        ((x) << S_FW_RIWR_LEN)
 
 151 #define S_FW_RIWR_GEN           31
 
 152 #define V_FW_RIWR_GEN(x)        ((x)  << S_FW_RIWR_GEN)
 
 160 /* If num_sgle is zero, flit 5+ contains immediate data.*/
 
 162         struct fw_riwrh wrh;    /* 0 */
 
 163         union t3_wrid wrid;     /* 1 */
 
 170         struct t3_sge sgl[T3_MAX_SGE];  /* 4+ */
 
 173 struct t3_local_inv_wr {
 
 174         struct fw_riwrh wrh;    /* 0 */
 
 175         union t3_wrid wrid;     /* 1 */
 
 180 struct t3_rdma_write_wr {
 
 181         struct fw_riwrh wrh;    /* 0 */
 
 182         union t3_wrid wrid;     /* 1 */
 
 186         __be64 to_sink;         /* 3 */
 
 189         struct t3_sge sgl[T3_MAX_SGE];  /* 5+ */
 
 192 struct t3_rdma_read_wr {
 
 193         struct fw_riwrh wrh;    /* 0 */
 
 194         union t3_wrid wrid;     /* 1 */
 
 198         __be64 rem_to;          /* 3 */
 
 199         __be32 local_stag;      /* 4 */
 
 201         __be64 local_to;        /* 5 */
 
 205         T3_VA_BASED_TO = 0x0,
 
 206         T3_ZERO_BASED_TO = 0x1
 
 207 } __attribute__ ((packed));
 
 210         T3_MEM_ACCESS_LOCAL_READ = 0x1,
 
 211         T3_MEM_ACCESS_LOCAL_WRITE = 0x2,
 
 212         T3_MEM_ACCESS_REM_READ = 0x4,
 
 213         T3_MEM_ACCESS_REM_WRITE = 0x8
 
 214 } __attribute__ ((packed));
 
 216 struct t3_bind_mw_wr {
 
 217         struct fw_riwrh wrh;    /* 0 */
 
 218         union t3_wrid wrid;     /* 1 */
 
 219         u16 reserved;           /* 2 */
 
 223         __be32 mw_stag;         /* 3 */
 
 225         __be64 mw_va;           /* 4 */
 
 226         __be32 mr_pbl_addr;     /* 5 */
 
 231 struct t3_receive_wr {
 
 232         struct fw_riwrh wrh;    /* 0 */
 
 233         union t3_wrid wrid;     /* 1 */
 
 234         u8 pagesz[T3_MAX_SGE];
 
 235         __be32 num_sgle;                /* 2 */
 
 236         struct t3_sge sgl[T3_MAX_SGE];  /* 3+ */
 
 237         __be32 pbl_addr[T3_MAX_SGE];
 
 240 struct t3_bypass_wr {
 
 242         union t3_wrid wrid;     /* 1 */
 
 245 struct t3_modify_qp_wr {
 
 246         struct fw_riwrh wrh;    /* 0 */
 
 247         union t3_wrid wrid;     /* 1 */
 
 248         __be32 flags;           /* 2 */
 
 249         __be32 quiesce;         /* 2 */
 
 250         __be32 max_ird;         /* 3 */
 
 251         __be32 max_ord;         /* 3 */
 
 252         __be64 sge_cmd;         /* 4 */
 
 257 enum t3_modify_qp_flags {
 
 258         MODQP_QUIESCE  = 0x01,
 
 259         MODQP_MAX_IRD  = 0x02,
 
 260         MODQP_MAX_ORD  = 0x04,
 
 261         MODQP_WRITE_EC = 0x08,
 
 262         MODQP_READ_EC  = 0x10,
 
 267         uP_RI_MPA_RX_MARKER_ENABLE = 0x1,
 
 268         uP_RI_MPA_TX_MARKER_ENABLE = 0x2,
 
 269         uP_RI_MPA_CRC_ENABLE = 0x4,
 
 270         uP_RI_MPA_IETF_ENABLE = 0x8
 
 271 } __attribute__ ((packed));
 
 274         uP_RI_QP_RDMA_READ_ENABLE = 0x01,
 
 275         uP_RI_QP_RDMA_WRITE_ENABLE = 0x02,
 
 276         uP_RI_QP_BIND_ENABLE = 0x04,
 
 277         uP_RI_QP_FAST_REGISTER_ENABLE = 0x08,
 
 278         uP_RI_QP_STAG0_ENABLE = 0x10
 
 279 } __attribute__ ((packed));
 
 281 struct t3_rdma_init_attr {
 
 289         enum t3_mpa_attrs mpaattrs;
 
 290         enum t3_qp_caps qpcaps;
 
 300 struct t3_rdma_init_wr {
 
 301         struct fw_riwrh wrh;    /* 0 */
 
 302         union t3_wrid wrid;     /* 1 */
 
 305         __be32 scqid;           /* 3 */
 
 307         __be32 rq_addr;         /* 4 */
 
 312         __be32 flags;           /* bits 31-1 - reservered */
 
 313                                 /* bit     0 - set if RECV posted */
 
 316         __be64 qp_dma_addr;     /* 7 */
 
 317         __be32 qp_dma_size;     /* 8 */
 
 326 enum rdma_init_wr_flags {
 
 331         struct t3_send_wr send;
 
 332         struct t3_rdma_write_wr write;
 
 333         struct t3_rdma_read_wr read;
 
 334         struct t3_receive_wr recv;
 
 335         struct t3_local_inv_wr local_inv;
 
 336         struct t3_bind_mw_wr bind;
 
 337         struct t3_bypass_wr bypass;
 
 338         struct t3_rdma_init_wr init;
 
 339         struct t3_modify_qp_wr qp_mod;
 
 340         struct t3_genbit genbit;
 
 344 #define T3_SQ_CQE_FLIT    13
 
 345 #define T3_SQ_COOKIE_FLIT 14
 
 347 #define T3_RQ_COOKIE_FLIT 13
 
 348 #define T3_RQ_CQE_FLIT    14
 
 350 static inline enum t3_wr_opcode fw_riwrh_opcode(struct fw_riwrh *wqe)
 
 352         return G_FW_RIWR_OP(be32_to_cpu(wqe->op_seop_flags));
 
 355 static inline void build_fw_riwrh(struct fw_riwrh *wqe, enum t3_wr_opcode op,
 
 356                                   enum t3_wr_flags flags, u8 genbit, u32 tid,
 
 359         wqe->op_seop_flags = cpu_to_be32(V_FW_RIWR_OP(op) |
 
 360                                          V_FW_RIWR_SOPEOP(M_FW_RIWR_SOPEOP) |
 
 361                                          V_FW_RIWR_FLAGS(flags));
 
 363         wqe->gen_tid_len = cpu_to_be32(V_FW_RIWR_GEN(genbit) |
 
 367         ((union t3_wr *)wqe)->genbit.genbit = cpu_to_be64(genbit);
 
 371  * T3 ULP2_TX commands
 
 378 /* T3 MC7 RDMA TPT entry format */
 
 381         TPT_NON_SHARED_MR = 0x0,
 
 384         TPT_MW_RELAXED_PROTECTION = 0x3
 
 393         TPT_LOCAL_READ = 0x8,
 
 394         TPT_LOCAL_WRITE = 0x4,
 
 395         TPT_REMOTE_READ = 0x2,
 
 396         TPT_REMOTE_WRITE = 0x1
 
 400         __be32 valid_stag_pdid;
 
 401         __be32 flags_pagesize_qpid;
 
 403         __be32 rsvd_pbl_addr;
 
 406         __be32 va_low_or_fbo;
 
 408         __be32 rsvd_bind_cnt_or_pstag;
 
 409         __be32 rsvd_pbl_size;
 
 412 #define S_TPT_VALID             31
 
 413 #define V_TPT_VALID(x)          ((x) << S_TPT_VALID)
 
 414 #define F_TPT_VALID             V_TPT_VALID(1U)
 
 416 #define S_TPT_STAG_KEY          23
 
 417 #define M_TPT_STAG_KEY          0xFF
 
 418 #define V_TPT_STAG_KEY(x)       ((x) << S_TPT_STAG_KEY)
 
 419 #define G_TPT_STAG_KEY(x)       (((x) >> S_TPT_STAG_KEY) & M_TPT_STAG_KEY)
 
 421 #define S_TPT_STAG_STATE        22
 
 422 #define V_TPT_STAG_STATE(x)     ((x) << S_TPT_STAG_STATE)
 
 423 #define F_TPT_STAG_STATE        V_TPT_STAG_STATE(1U)
 
 425 #define S_TPT_STAG_TYPE         20
 
 426 #define M_TPT_STAG_TYPE         0x3
 
 427 #define V_TPT_STAG_TYPE(x)      ((x) << S_TPT_STAG_TYPE)
 
 428 #define G_TPT_STAG_TYPE(x)      (((x) >> S_TPT_STAG_TYPE) & M_TPT_STAG_TYPE)
 
 431 #define M_TPT_PDID              0xFFFFF
 
 432 #define V_TPT_PDID(x)           ((x) << S_TPT_PDID)
 
 433 #define G_TPT_PDID(x)           (((x) >> S_TPT_PDID) & M_TPT_PDID)
 
 435 #define S_TPT_PERM              28
 
 436 #define M_TPT_PERM              0xF
 
 437 #define V_TPT_PERM(x)           ((x) << S_TPT_PERM)
 
 438 #define G_TPT_PERM(x)           (((x) >> S_TPT_PERM) & M_TPT_PERM)
 
 440 #define S_TPT_REM_INV_DIS       27
 
 441 #define V_TPT_REM_INV_DIS(x)    ((x) << S_TPT_REM_INV_DIS)
 
 442 #define F_TPT_REM_INV_DIS       V_TPT_REM_INV_DIS(1U)
 
 444 #define S_TPT_ADDR_TYPE         26
 
 445 #define V_TPT_ADDR_TYPE(x)      ((x) << S_TPT_ADDR_TYPE)
 
 446 #define F_TPT_ADDR_TYPE         V_TPT_ADDR_TYPE(1U)
 
 448 #define S_TPT_MW_BIND_ENABLE    25
 
 449 #define V_TPT_MW_BIND_ENABLE(x) ((x) << S_TPT_MW_BIND_ENABLE)
 
 450 #define F_TPT_MW_BIND_ENABLE    V_TPT_MW_BIND_ENABLE(1U)
 
 452 #define S_TPT_PAGE_SIZE         20
 
 453 #define M_TPT_PAGE_SIZE         0x1F
 
 454 #define V_TPT_PAGE_SIZE(x)      ((x) << S_TPT_PAGE_SIZE)
 
 455 #define G_TPT_PAGE_SIZE(x)      (((x) >> S_TPT_PAGE_SIZE) & M_TPT_PAGE_SIZE)
 
 457 #define S_TPT_PBL_ADDR          0
 
 458 #define M_TPT_PBL_ADDR          0x1FFFFFFF
 
 459 #define V_TPT_PBL_ADDR(x)       ((x) << S_TPT_PBL_ADDR)
 
 460 #define G_TPT_PBL_ADDR(x)       (((x) >> S_TPT_PBL_ADDR) & M_TPT_PBL_ADDR)
 
 463 #define M_TPT_QPID              0xFFFFF
 
 464 #define V_TPT_QPID(x)           ((x) << S_TPT_QPID)
 
 465 #define G_TPT_QPID(x)           (((x) >> S_TPT_QPID) & M_TPT_QPID)
 
 467 #define S_TPT_PSTAG             0
 
 468 #define M_TPT_PSTAG             0xFFFFFF
 
 469 #define V_TPT_PSTAG(x)          ((x) << S_TPT_PSTAG)
 
 470 #define G_TPT_PSTAG(x)          (((x) >> S_TPT_PSTAG) & M_TPT_PSTAG)
 
 472 #define S_TPT_PBL_SIZE          0
 
 473 #define M_TPT_PBL_SIZE          0xFFFFF
 
 474 #define V_TPT_PBL_SIZE(x)       ((x) << S_TPT_PBL_SIZE)
 
 475 #define G_TPT_PBL_SIZE(x)       (((x) >> S_TPT_PBL_SIZE) & M_TPT_PBL_SIZE)
 
 496 #define M_CQE_OOO         0x1
 
 497 #define G_CQE_OOO(x)      ((((x) >> S_CQE_OOO)) & M_CQE_OOO)
 
 498 #define V_CEQ_OOO(x)      ((x)<<S_CQE_OOO)
 
 500 #define S_CQE_QPID        12
 
 501 #define M_CQE_QPID        0x7FFFF
 
 502 #define G_CQE_QPID(x)     ((((x) >> S_CQE_QPID)) & M_CQE_QPID)
 
 503 #define V_CQE_QPID(x)     ((x)<<S_CQE_QPID)
 
 505 #define S_CQE_SWCQE       11
 
 506 #define M_CQE_SWCQE       0x1
 
 507 #define G_CQE_SWCQE(x)    ((((x) >> S_CQE_SWCQE)) & M_CQE_SWCQE)
 
 508 #define V_CQE_SWCQE(x)    ((x)<<S_CQE_SWCQE)
 
 510 #define S_CQE_GENBIT      10
 
 511 #define M_CQE_GENBIT      0x1
 
 512 #define G_CQE_GENBIT(x)   (((x) >> S_CQE_GENBIT) & M_CQE_GENBIT)
 
 513 #define V_CQE_GENBIT(x)   ((x)<<S_CQE_GENBIT)
 
 515 #define S_CQE_STATUS      5
 
 516 #define M_CQE_STATUS      0x1F
 
 517 #define G_CQE_STATUS(x)   ((((x) >> S_CQE_STATUS)) & M_CQE_STATUS)
 
 518 #define V_CQE_STATUS(x)   ((x)<<S_CQE_STATUS)
 
 521 #define M_CQE_TYPE        0x1
 
 522 #define G_CQE_TYPE(x)     ((((x) >> S_CQE_TYPE)) & M_CQE_TYPE)
 
 523 #define V_CQE_TYPE(x)     ((x)<<S_CQE_TYPE)
 
 525 #define S_CQE_OPCODE      0
 
 526 #define M_CQE_OPCODE      0xF
 
 527 #define G_CQE_OPCODE(x)   ((((x) >> S_CQE_OPCODE)) & M_CQE_OPCODE)
 
 528 #define V_CQE_OPCODE(x)   ((x)<<S_CQE_OPCODE)
 
 530 #define SW_CQE(x)         (G_CQE_SWCQE(be32_to_cpu((x).header)))
 
 531 #define CQE_OOO(x)        (G_CQE_OOO(be32_to_cpu((x).header)))
 
 532 #define CQE_QPID(x)       (G_CQE_QPID(be32_to_cpu((x).header)))
 
 533 #define CQE_GENBIT(x)     (G_CQE_GENBIT(be32_to_cpu((x).header)))
 
 534 #define CQE_TYPE(x)       (G_CQE_TYPE(be32_to_cpu((x).header)))
 
 535 #define SQ_TYPE(x)        (CQE_TYPE((x)))
 
 536 #define RQ_TYPE(x)        (!CQE_TYPE((x)))
 
 537 #define CQE_STATUS(x)     (G_CQE_STATUS(be32_to_cpu((x).header)))
 
 538 #define CQE_OPCODE(x)     (G_CQE_OPCODE(be32_to_cpu((x).header)))
 
 540 #define CQE_LEN(x)        (be32_to_cpu((x).len))
 
 542 /* used for RQ completion processing */
 
 543 #define CQE_WRID_STAG(x)  (be32_to_cpu((x).u.rcqe.stag))
 
 544 #define CQE_WRID_MSN(x)   (be32_to_cpu((x).u.rcqe.msn))
 
 546 /* used for SQ completion processing */
 
 547 #define CQE_WRID_SQ_WPTR(x)     ((x).u.scqe.wrid_hi)
 
 548 #define CQE_WRID_WPTR(x)        ((x).u.scqe.wrid_low)
 
 550 /* generic accessor macros */
 
 551 #define CQE_WRID_HI(x)          ((x).u.scqe.wrid_hi)
 
 552 #define CQE_WRID_LOW(x)         ((x).u.scqe.wrid_low)
 
 554 #define TPT_ERR_SUCCESS                     0x0
 
 555 #define TPT_ERR_STAG                        0x1  /* STAG invalid: either the */
 
 556                                                  /* STAG is offlimt, being 0, */
 
 557                                                  /* or STAG_key mismatch */
 
 558 #define TPT_ERR_PDID                        0x2  /* PDID mismatch */
 
 559 #define TPT_ERR_QPID                        0x3  /* QPID mismatch */
 
 560 #define TPT_ERR_ACCESS                      0x4  /* Invalid access right */
 
 561 #define TPT_ERR_WRAP                        0x5  /* Wrap error */
 
 562 #define TPT_ERR_BOUND                       0x6  /* base and bounds voilation */
 
 563 #define TPT_ERR_INVALIDATE_SHARED_MR        0x7  /* attempt to invalidate a  */
 
 564                                                  /* shared memory region */
 
 565 #define TPT_ERR_INVALIDATE_MR_WITH_MW_BOUND 0x8  /* attempt to invalidate a  */
 
 566                                                  /* shared memory region */
 
 567 #define TPT_ERR_ECC                         0x9  /* ECC error detected */
 
 568 #define TPT_ERR_ECC_PSTAG                   0xA  /* ECC error detected when  */
 
 569                                                  /* reading PSTAG for a MW  */
 
 571 #define TPT_ERR_PBL_ADDR_BOUND              0xB  /* pbl addr out of bounds:  */
 
 573 #define TPT_ERR_SWFLUSH                     0xC  /* SW FLUSHED */
 
 574 #define TPT_ERR_CRC                         0x10 /* CRC error */
 
 575 #define TPT_ERR_MARKER                      0x11 /* Marker error */
 
 576 #define TPT_ERR_PDU_LEN_ERR                 0x12 /* invalid PDU length */
 
 577 #define TPT_ERR_OUT_OF_RQE                  0x13 /* out of RQE */
 
 578 #define TPT_ERR_DDP_VERSION                 0x14 /* wrong DDP version */
 
 579 #define TPT_ERR_RDMA_VERSION                0x15 /* wrong RDMA version */
 
 580 #define TPT_ERR_OPCODE                      0x16 /* invalid rdma opcode */
 
 581 #define TPT_ERR_DDP_QUEUE_NUM               0x17 /* invalid ddp queue number */
 
 582 #define TPT_ERR_MSN                         0x18 /* MSN error */
 
 583 #define TPT_ERR_TBIT                        0x19 /* tag bit not set correctly */
 
 584 #define TPT_ERR_MO                          0x1A /* MO not 0 for TERMINATE  */
 
 586 #define TPT_ERR_MSN_GAP                     0x1B
 
 587 #define TPT_ERR_MSN_RANGE                   0x1C
 
 588 #define TPT_ERR_IRD_OVERFLOW                0x1D
 
 589 #define TPT_ERR_RQE_ADDR_BOUND              0x1E /* RQE addr out of bounds:  */
 
 591 #define TPT_ERR_INTERNAL_ERR                0x1F /* internal error (opcode  */
 
 605  * A T3 WQ implements both the SQ and RQ.
 
 608         union t3_wr *queue;             /* DMA accessable memory */
 
 609         dma_addr_t dma_addr;            /* DMA address for HW */
 
 610         DECLARE_PCI_UNMAP_ADDR(mapping) /* unmap kruft */
 
 611         u32 error;                      /* 1 once we go to ERROR */
 
 613         u32 wptr;                       /* idx to next available WR slot */
 
 614         u32 size_log2;                  /* total wq size */
 
 615         struct t3_swsq *sq;             /* SW SQ */
 
 616         struct t3_swsq *oldest_read;    /* tracks oldest pending read */
 
 617         u32 sq_wptr;                    /* sq_wptr - sq_rptr == count of */
 
 618         u32 sq_rptr;                    /* pending wrs */
 
 619         u32 sq_size_log2;               /* sq size */
 
 620         u64 *rq;                        /* SW RQ (holds consumer wr_ids */
 
 621         u32 rq_wptr;                    /* rq_wptr - rq_rptr == count of */
 
 622         u32 rq_rptr;                    /* pending wrs */
 
 623         u64 *rq_oldest_wr;              /* oldest wr on the SW RQ */
 
 624         u32 rq_size_log2;               /* rq size */
 
 625         u32 rq_addr;                    /* rq adapter address */
 
 626         void __iomem *doorbell;         /* kernel db */
 
 627         u64 udb;                        /* user db if any */
 
 636         DECLARE_PCI_UNMAP_ADDR(mapping)
 
 637         struct t3_cqe *queue;
 
 638         struct t3_cqe *sw_queue;
 
 643 #define CQ_VLD_ENTRY(ptr,size_log2,cqe) (Q_GENBIT(ptr,size_log2) == \
 
 646 static inline void cxio_set_wq_in_error(struct t3_wq *wq)
 
 648         wq->queue->flit[13] = 1;
 
 651 static inline struct t3_cqe *cxio_next_hw_cqe(struct t3_cq *cq)
 
 655         cqe = cq->queue + (Q_PTR2IDX(cq->rptr, cq->size_log2));
 
 656         if (CQ_VLD_ENTRY(cq->rptr, cq->size_log2, cqe))
 
 661 static inline struct t3_cqe *cxio_next_sw_cqe(struct t3_cq *cq)
 
 665         if (!Q_EMPTY(cq->sw_rptr, cq->sw_wptr)) {
 
 666                 cqe = cq->sw_queue + (Q_PTR2IDX(cq->sw_rptr, cq->size_log2));
 
 672 static inline struct t3_cqe *cxio_next_cqe(struct t3_cq *cq)
 
 676         if (!Q_EMPTY(cq->sw_rptr, cq->sw_wptr)) {
 
 677                 cqe = cq->sw_queue + (Q_PTR2IDX(cq->sw_rptr, cq->size_log2));
 
 680         cqe = cq->queue + (Q_PTR2IDX(cq->rptr, cq->size_log2));
 
 681         if (CQ_VLD_ENTRY(cq->rptr, cq->size_log2, cqe))