perf_counter: unify irq output code
[linux-2.6] / arch / x86 / kernel / irqinit_32.c
1 #include <linux/errno.h>
2 #include <linux/signal.h>
3 #include <linux/sched.h>
4 #include <linux/ioport.h>
5 #include <linux/interrupt.h>
6 #include <linux/slab.h>
7 #include <linux/random.h>
8 #include <linux/init.h>
9 #include <linux/kernel_stat.h>
10 #include <linux/sysdev.h>
11 #include <linux/bitops.h>
12 #include <linux/io.h>
13 #include <linux/delay.h>
14
15 #include <asm/atomic.h>
16 #include <asm/system.h>
17 #include <asm/timer.h>
18 #include <asm/pgtable.h>
19 #include <asm/desc.h>
20 #include <asm/apic.h>
21 #include <asm/setup.h>
22 #include <asm/i8259.h>
23 #include <asm/traps.h>
24
25
26 /*
27  * Note that on a 486, we don't want to do a SIGFPE on an irq13
28  * as the irq is unreliable, and exception 16 works correctly
29  * (ie as explained in the intel literature). On a 386, you
30  * can't use exception 16 due to bad IBM design, so we have to
31  * rely on the less exact irq13.
32  *
33  * Careful.. Not only is IRQ13 unreliable, but it is also
34  * leads to races. IBM designers who came up with it should
35  * be shot.
36  */
37
38 static irqreturn_t math_error_irq(int cpl, void *dev_id)
39 {
40         outb(0, 0xF0);
41         if (ignore_fpu_irq || !boot_cpu_data.hard_math)
42                 return IRQ_NONE;
43         math_error((void __user *)get_irq_regs()->ip);
44         return IRQ_HANDLED;
45 }
46
47 /*
48  * New motherboards sometimes make IRQ 13 be a PCI interrupt,
49  * so allow interrupt sharing.
50  */
51 static struct irqaction fpu_irq = {
52         .handler = math_error_irq,
53         .name = "fpu",
54 };
55
56 void __init init_ISA_irqs(void)
57 {
58         int i;
59
60 #ifdef CONFIG_X86_LOCAL_APIC
61         init_bsp_APIC();
62 #endif
63         init_8259A(0);
64
65         /*
66          * 16 old-style INTA-cycle interrupts:
67          */
68         for (i = 0; i < NR_IRQS_LEGACY; i++) {
69                 struct irq_desc *desc = irq_to_desc(i);
70
71                 desc->status = IRQ_DISABLED;
72                 desc->action = NULL;
73                 desc->depth = 1;
74
75                 set_irq_chip_and_handler_name(i, &i8259A_chip,
76                                               handle_level_irq, "XT");
77         }
78 }
79
80 /*
81  * IRQ2 is cascade interrupt to second interrupt controller
82  */
83 static struct irqaction irq2 = {
84         .handler = no_action,
85         .name = "cascade",
86 };
87
88 DEFINE_PER_CPU(vector_irq_t, vector_irq) = {
89         [0 ... IRQ0_VECTOR - 1] = -1,
90         [IRQ0_VECTOR] = 0,
91         [IRQ1_VECTOR] = 1,
92         [IRQ2_VECTOR] = 2,
93         [IRQ3_VECTOR] = 3,
94         [IRQ4_VECTOR] = 4,
95         [IRQ5_VECTOR] = 5,
96         [IRQ6_VECTOR] = 6,
97         [IRQ7_VECTOR] = 7,
98         [IRQ8_VECTOR] = 8,
99         [IRQ9_VECTOR] = 9,
100         [IRQ10_VECTOR] = 10,
101         [IRQ11_VECTOR] = 11,
102         [IRQ12_VECTOR] = 12,
103         [IRQ13_VECTOR] = 13,
104         [IRQ14_VECTOR] = 14,
105         [IRQ15_VECTOR] = 15,
106         [IRQ15_VECTOR + 1 ... NR_VECTORS - 1] = -1
107 };
108
109 int vector_used_by_percpu_irq(unsigned int vector)
110 {
111         int cpu;
112
113         for_each_online_cpu(cpu) {
114                 if (per_cpu(vector_irq, cpu)[vector] != -1)
115                         return 1;
116         }
117
118         return 0;
119 }
120
121 static void __init smp_intr_init(void)
122 {
123 #if defined(CONFIG_X86_LOCAL_APIC) && defined(CONFIG_SMP)
124         /*
125          * The reschedule interrupt is a CPU-to-CPU reschedule-helper
126          * IPI, driven by wakeup.
127          */
128         alloc_intr_gate(RESCHEDULE_VECTOR, reschedule_interrupt);
129
130         /* IPIs for invalidation */
131         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+0, invalidate_interrupt0);
132         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+1, invalidate_interrupt1);
133         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+2, invalidate_interrupt2);
134         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+3, invalidate_interrupt3);
135         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+4, invalidate_interrupt4);
136         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+5, invalidate_interrupt5);
137         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+6, invalidate_interrupt6);
138         alloc_intr_gate(INVALIDATE_TLB_VECTOR_START+7, invalidate_interrupt7);
139
140         /* IPI for generic function call */
141         alloc_intr_gate(CALL_FUNCTION_VECTOR, call_function_interrupt);
142
143         /* IPI for single call function */
144         alloc_intr_gate(CALL_FUNCTION_SINGLE_VECTOR,
145                                  call_function_single_interrupt);
146
147         /* Low priority IPI to cleanup after moving an irq */
148         set_intr_gate(IRQ_MOVE_CLEANUP_VECTOR, irq_move_cleanup_interrupt);
149         set_bit(IRQ_MOVE_CLEANUP_VECTOR, used_vectors);
150 #endif
151 }
152
153 static void __init apic_intr_init(void)
154 {
155         smp_intr_init();
156
157 #ifdef CONFIG_X86_LOCAL_APIC
158         /* self generated IPI for local APIC timer */
159         alloc_intr_gate(LOCAL_TIMER_VECTOR, apic_timer_interrupt);
160
161         /* generic IPI for platform specific use */
162         alloc_intr_gate(GENERIC_INTERRUPT_VECTOR, generic_interrupt);
163
164         /* IPI vectors for APIC spurious and error interrupts */
165         alloc_intr_gate(SPURIOUS_APIC_VECTOR, spurious_interrupt);
166         alloc_intr_gate(ERROR_APIC_VECTOR, error_interrupt);
167 # ifdef CONFIG_PERF_COUNTERS
168         alloc_intr_gate(LOCAL_PERF_VECTOR, perf_counter_interrupt);
169 # endif
170
171 # ifdef CONFIG_X86_MCE_P4THERMAL
172         /* thermal monitor LVT interrupt */
173         alloc_intr_gate(THERMAL_APIC_VECTOR, thermal_interrupt);
174 # endif
175 #endif
176 }
177
178 /* Overridden in paravirt.c */
179 void init_IRQ(void) __attribute__((weak, alias("native_init_IRQ")));
180
181 void __init native_init_IRQ(void)
182 {
183         int i;
184
185         /* Execute any quirks before the call gates are initialised: */
186         x86_quirk_pre_intr_init();
187
188         apic_intr_init();
189
190         /*
191          * Cover the whole vector space, no vector can escape
192          * us. (some of these will be overridden and become
193          * 'special' SMP interrupts)
194          */
195         for (i = 0; i < (NR_VECTORS - FIRST_EXTERNAL_VECTOR); i++) {
196                 int vector = FIRST_EXTERNAL_VECTOR + i;
197                 /* SYSCALL_VECTOR was reserved in trap_init. */
198                 if (!test_bit(vector, used_vectors))
199                         set_intr_gate(vector, interrupt[i]);
200         }
201
202         if (!acpi_ioapic)
203                 setup_irq(2, &irq2);
204
205         /*
206          * Call quirks after call gates are initialised (usually add in
207          * the architecture specific gates):
208          */
209         x86_quirk_intr_init();
210
211         /*
212          * External FPU? Set up irq13 if so, for
213          * original braindamaged IBM FERR coupling.
214          */
215         if (boot_cpu_data.hard_math && !cpu_has_fpu)
216                 setup_irq(FPU_IRQ, &fpu_irq);
217
218         irq_ctx_init(smp_processor_id());
219 }