[PATCH] x86_64: Fix VSMP build
[linux-2.6] / include / asm-x86_64 / local.h
1 #ifndef _ARCH_X8664_LOCAL_H
2 #define _ARCH_X8664_LOCAL_H
3
4 #include <linux/percpu.h>
5
6 typedef struct
7 {
8         volatile unsigned int counter;
9 } local_t;
10
11 #define LOCAL_INIT(i)   { (i) }
12
13 #define local_read(v)   ((v)->counter)
14 #define local_set(v,i)  (((v)->counter) = (i))
15
16 static __inline__ void local_inc(local_t *v)
17 {
18         __asm__ __volatile__(
19                 "incl %0"
20                 :"=m" (v->counter)
21                 :"m" (v->counter));
22 }
23
24 static __inline__ void local_dec(local_t *v)
25 {
26         __asm__ __volatile__(
27                 "decl %0"
28                 :"=m" (v->counter)
29                 :"m" (v->counter));
30 }
31
32 static __inline__ void local_add(unsigned int i, local_t *v)
33 {
34         __asm__ __volatile__(
35                 "addl %1,%0"
36                 :"=m" (v->counter)
37                 :"ir" (i), "m" (v->counter));
38 }
39
40 static __inline__ void local_sub(unsigned int i, local_t *v)
41 {
42         __asm__ __volatile__(
43                 "subl %1,%0"
44                 :"=m" (v->counter)
45                 :"ir" (i), "m" (v->counter));
46 }
47
48 /* On x86-64 these are better than the atomic variants on SMP kernels
49    because they dont use a lock prefix. */
50 #define __local_inc(l)          local_inc(l)
51 #define __local_dec(l)          local_dec(l)
52 #define __local_add(i,l)        local_add((i),(l))
53 #define __local_sub(i,l)        local_sub((i),(l))
54
55 /* Use these for per-cpu local_t variables: on some archs they are
56  * much more efficient than these naive implementations.  Note they take
57  * a variable, not an address.
58  *
59  * This could be done better if we moved the per cpu data directly
60  * after GS.
61  */
62 #define cpu_local_read(v)       local_read(&__get_cpu_var(v))
63 #define cpu_local_set(v, i)     local_set(&__get_cpu_var(v), (i))
64 #define cpu_local_inc(v)        local_inc(&__get_cpu_var(v))
65 #define cpu_local_dec(v)        local_dec(&__get_cpu_var(v))
66 #define cpu_local_add(i, v)     local_add((i), &__get_cpu_var(v))
67 #define cpu_local_sub(i, v)     local_sub((i), &__get_cpu_var(v))
68
69 #define __cpu_local_inc(v)      cpu_local_inc(v)
70 #define __cpu_local_dec(v)      cpu_local_dec(v)
71 #define __cpu_local_add(i, v)   cpu_local_add((i), (v))
72 #define __cpu_local_sub(i, v)   cpu_local_sub((i), (v))
73
74 #endif /* _ARCH_I386_LOCAL_H */