Merge branch 'linus' into perfcounters/core
[linux-2.6] / arch / x86 / kernel / apic / apic.c
1 /*
2  *      Local APIC handling, local APIC timers
3  *
4  *      (c) 1999, 2000, 2009 Ingo Molnar <mingo@redhat.com>
5  *
6  *      Fixes
7  *      Maciej W. Rozycki       :       Bits for genuine 82489DX APICs;
8  *                                      thanks to Eric Gilmore
9  *                                      and Rolf G. Tews
10  *                                      for testing these extensively.
11  *      Maciej W. Rozycki       :       Various updates and fixes.
12  *      Mikael Pettersson       :       Power Management for UP-APIC.
13  *      Pavel Machek and
14  *      Mikael Pettersson       :       PM converted to driver model.
15  */
16
17 #include <linux/kernel_stat.h>
18 #include <linux/mc146818rtc.h>
19 #include <linux/acpi_pmtmr.h>
20 #include <linux/clockchips.h>
21 #include <linux/interrupt.h>
22 #include <linux/bootmem.h>
23 #include <linux/ftrace.h>
24 #include <linux/ioport.h>
25 #include <linux/module.h>
26 #include <linux/sysdev.h>
27 #include <linux/delay.h>
28 #include <linux/timex.h>
29 #include <linux/dmar.h>
30 #include <linux/init.h>
31 #include <linux/cpu.h>
32 #include <linux/dmi.h>
33 #include <linux/nmi.h>
34 #include <linux/smp.h>
35 #include <linux/mm.h>
36
37 #include <asm/perf_counter.h>
38 #include <asm/pgalloc.h>
39 #include <asm/atomic.h>
40 #include <asm/mpspec.h>
41 #include <asm/i8253.h>
42 #include <asm/i8259.h>
43 #include <asm/proto.h>
44 #include <asm/apic.h>
45 #include <asm/desc.h>
46 #include <asm/hpet.h>
47 #include <asm/idle.h>
48 #include <asm/mtrr.h>
49 #include <asm/smp.h>
50 #include <asm/mce.h>
51
52 unsigned int num_processors;
53
54 unsigned disabled_cpus __cpuinitdata;
55
56 /* Processor that is doing the boot up */
57 unsigned int boot_cpu_physical_apicid = -1U;
58
59 /*
60  * The highest APIC ID seen during enumeration.
61  *
62  * This determines the messaging protocol we can use: if all APIC IDs
63  * are in the 0 ... 7 range, then we can use logical addressing which
64  * has some performance advantages (better broadcasting).
65  *
66  * If there's an APIC ID above 8, we use physical addressing.
67  */
68 unsigned int max_physical_apicid;
69
70 /*
71  * Bitmask of physically existing CPUs:
72  */
73 physid_mask_t phys_cpu_present_map;
74
75 /*
76  * Map cpu index to physical APIC ID
77  */
78 DEFINE_EARLY_PER_CPU(u16, x86_cpu_to_apicid, BAD_APICID);
79 DEFINE_EARLY_PER_CPU(u16, x86_bios_cpu_apicid, BAD_APICID);
80 EXPORT_EARLY_PER_CPU_SYMBOL(x86_cpu_to_apicid);
81 EXPORT_EARLY_PER_CPU_SYMBOL(x86_bios_cpu_apicid);
82
83 #ifdef CONFIG_X86_32
84 /*
85  * Knob to control our willingness to enable the local APIC.
86  *
87  * +1=force-enable
88  */
89 static int force_enable_local_apic;
90 /*
91  * APIC command line parameters
92  */
93 static int __init parse_lapic(char *arg)
94 {
95         force_enable_local_apic = 1;
96         return 0;
97 }
98 early_param("lapic", parse_lapic);
99 /* Local APIC was disabled by the BIOS and enabled by the kernel */
100 static int enabled_via_apicbase;
101
102 #endif
103
104 #ifdef CONFIG_X86_64
105 static int apic_calibrate_pmtmr __initdata;
106 static __init int setup_apicpmtimer(char *s)
107 {
108         apic_calibrate_pmtmr = 1;
109         notsc_setup(NULL);
110         return 0;
111 }
112 __setup("apicpmtimer", setup_apicpmtimer);
113 #endif
114
115 #ifdef CONFIG_X86_X2APIC
116 int x2apic;
117 /* x2apic enabled before OS handover */
118 static int x2apic_preenabled;
119 static int disable_x2apic;
120 static __init int setup_nox2apic(char *str)
121 {
122         disable_x2apic = 1;
123         setup_clear_cpu_cap(X86_FEATURE_X2APIC);
124         return 0;
125 }
126 early_param("nox2apic", setup_nox2apic);
127 #endif
128
129 unsigned long mp_lapic_addr;
130 int disable_apic;
131 /* Disable local APIC timer from the kernel commandline or via dmi quirk */
132 static int disable_apic_timer __cpuinitdata;
133 /* Local APIC timer works in C2 */
134 int local_apic_timer_c2_ok;
135 EXPORT_SYMBOL_GPL(local_apic_timer_c2_ok);
136
137 int first_system_vector = 0xfe;
138
139 /*
140  * Debug level, exported for io_apic.c
141  */
142 unsigned int apic_verbosity;
143
144 int pic_mode;
145
146 /* Have we found an MP table */
147 int smp_found_config;
148
149 static struct resource lapic_resource = {
150         .name = "Local APIC",
151         .flags = IORESOURCE_MEM | IORESOURCE_BUSY,
152 };
153
154 static unsigned int calibration_result;
155
156 static int lapic_next_event(unsigned long delta,
157                             struct clock_event_device *evt);
158 static void lapic_timer_setup(enum clock_event_mode mode,
159                               struct clock_event_device *evt);
160 static void lapic_timer_broadcast(const struct cpumask *mask);
161 static void apic_pm_activate(void);
162
163 /*
164  * The local apic timer can be used for any function which is CPU local.
165  */
166 static struct clock_event_device lapic_clockevent = {
167         .name           = "lapic",
168         .features       = CLOCK_EVT_FEAT_PERIODIC | CLOCK_EVT_FEAT_ONESHOT
169                         | CLOCK_EVT_FEAT_C3STOP | CLOCK_EVT_FEAT_DUMMY,
170         .shift          = 32,
171         .set_mode       = lapic_timer_setup,
172         .set_next_event = lapic_next_event,
173         .broadcast      = lapic_timer_broadcast,
174         .rating         = 100,
175         .irq            = -1,
176 };
177 static DEFINE_PER_CPU(struct clock_event_device, lapic_events);
178
179 static unsigned long apic_phys;
180
181 /*
182  * Get the LAPIC version
183  */
184 static inline int lapic_get_version(void)
185 {
186         return GET_APIC_VERSION(apic_read(APIC_LVR));
187 }
188
189 /*
190  * Check, if the APIC is integrated or a separate chip
191  */
192 static inline int lapic_is_integrated(void)
193 {
194 #ifdef CONFIG_X86_64
195         return 1;
196 #else
197         return APIC_INTEGRATED(lapic_get_version());
198 #endif
199 }
200
201 /*
202  * Check, whether this is a modern or a first generation APIC
203  */
204 static int modern_apic(void)
205 {
206         /* AMD systems use old APIC versions, so check the CPU */
207         if (boot_cpu_data.x86_vendor == X86_VENDOR_AMD &&
208             boot_cpu_data.x86 >= 0xf)
209                 return 1;
210         return lapic_get_version() >= 0x14;
211 }
212
213 void native_apic_wait_icr_idle(void)
214 {
215         while (apic_read(APIC_ICR) & APIC_ICR_BUSY)
216                 cpu_relax();
217 }
218
219 u32 native_safe_apic_wait_icr_idle(void)
220 {
221         u32 send_status;
222         int timeout;
223
224         timeout = 0;
225         do {
226                 send_status = apic_read(APIC_ICR) & APIC_ICR_BUSY;
227                 if (!send_status)
228                         break;
229                 udelay(100);
230         } while (timeout++ < 1000);
231
232         return send_status;
233 }
234
235 void native_apic_icr_write(u32 low, u32 id)
236 {
237         apic_write(APIC_ICR2, SET_APIC_DEST_FIELD(id));
238         apic_write(APIC_ICR, low);
239 }
240
241 u64 native_apic_icr_read(void)
242 {
243         u32 icr1, icr2;
244
245         icr2 = apic_read(APIC_ICR2);
246         icr1 = apic_read(APIC_ICR);
247
248         return icr1 | ((u64)icr2 << 32);
249 }
250
251 /**
252  * enable_NMI_through_LVT0 - enable NMI through local vector table 0
253  */
254 void __cpuinit enable_NMI_through_LVT0(void)
255 {
256         unsigned int v;
257
258         /* unmask and set to NMI */
259         v = APIC_DM_NMI;
260
261         /* Level triggered for 82489DX (32bit mode) */
262         if (!lapic_is_integrated())
263                 v |= APIC_LVT_LEVEL_TRIGGER;
264
265         apic_write(APIC_LVT0, v);
266 }
267
268 #ifdef CONFIG_X86_32
269 /**
270  * get_physical_broadcast - Get number of physical broadcast IDs
271  */
272 int get_physical_broadcast(void)
273 {
274         return modern_apic() ? 0xff : 0xf;
275 }
276 #endif
277
278 /**
279  * lapic_get_maxlvt - get the maximum number of local vector table entries
280  */
281 int lapic_get_maxlvt(void)
282 {
283         unsigned int v;
284
285         v = apic_read(APIC_LVR);
286         /*
287          * - we always have APIC integrated on 64bit mode
288          * - 82489DXs do not report # of LVT entries
289          */
290         return APIC_INTEGRATED(GET_APIC_VERSION(v)) ? GET_APIC_MAXLVT(v) : 2;
291 }
292
293 /*
294  * Local APIC timer
295  */
296
297 /* Clock divisor */
298 #define APIC_DIVISOR 16
299
300 /*
301  * This function sets up the local APIC timer, with a timeout of
302  * 'clocks' APIC bus clock. During calibration we actually call
303  * this function twice on the boot CPU, once with a bogus timeout
304  * value, second time for real. The other (noncalibrating) CPUs
305  * call this function only once, with the real, calibrated value.
306  *
307  * We do reads before writes even if unnecessary, to get around the
308  * P5 APIC double write bug.
309  */
310 static void __setup_APIC_LVTT(unsigned int clocks, int oneshot, int irqen)
311 {
312         unsigned int lvtt_value, tmp_value;
313
314         lvtt_value = LOCAL_TIMER_VECTOR;
315         if (!oneshot)
316                 lvtt_value |= APIC_LVT_TIMER_PERIODIC;
317         if (!lapic_is_integrated())
318                 lvtt_value |= SET_APIC_TIMER_BASE(APIC_TIMER_BASE_DIV);
319
320         if (!irqen)
321                 lvtt_value |= APIC_LVT_MASKED;
322
323         apic_write(APIC_LVTT, lvtt_value);
324
325         /*
326          * Divide PICLK by 16
327          */
328         tmp_value = apic_read(APIC_TDCR);
329         apic_write(APIC_TDCR,
330                 (tmp_value & ~(APIC_TDR_DIV_1 | APIC_TDR_DIV_TMBASE)) |
331                 APIC_TDR_DIV_16);
332
333         if (!oneshot)
334                 apic_write(APIC_TMICT, clocks / APIC_DIVISOR);
335 }
336
337 /*
338  * Setup extended LVT, AMD specific (K8, family 10h)
339  *
340  * Vector mappings are hard coded. On K8 only offset 0 (APIC500) and
341  * MCE interrupts are supported. Thus MCE offset must be set to 0.
342  *
343  * If mask=1, the LVT entry does not generate interrupts while mask=0
344  * enables the vector. See also the BKDGs.
345  */
346
347 #define APIC_EILVT_LVTOFF_MCE 0
348 #define APIC_EILVT_LVTOFF_IBS 1
349
350 static void setup_APIC_eilvt(u8 lvt_off, u8 vector, u8 msg_type, u8 mask)
351 {
352         unsigned long reg = (lvt_off << 4) + APIC_EILVT0;
353         unsigned int  v   = (mask << 16) | (msg_type << 8) | vector;
354
355         apic_write(reg, v);
356 }
357
358 u8 setup_APIC_eilvt_mce(u8 vector, u8 msg_type, u8 mask)
359 {
360         setup_APIC_eilvt(APIC_EILVT_LVTOFF_MCE, vector, msg_type, mask);
361         return APIC_EILVT_LVTOFF_MCE;
362 }
363
364 u8 setup_APIC_eilvt_ibs(u8 vector, u8 msg_type, u8 mask)
365 {
366         setup_APIC_eilvt(APIC_EILVT_LVTOFF_IBS, vector, msg_type, mask);
367         return APIC_EILVT_LVTOFF_IBS;
368 }
369 EXPORT_SYMBOL_GPL(setup_APIC_eilvt_ibs);
370
371 /*
372  * Program the next event, relative to now
373  */
374 static int lapic_next_event(unsigned long delta,
375                             struct clock_event_device *evt)
376 {
377         apic_write(APIC_TMICT, delta);
378         return 0;
379 }
380
381 /*
382  * Setup the lapic timer in periodic or oneshot mode
383  */
384 static void lapic_timer_setup(enum clock_event_mode mode,
385                               struct clock_event_device *evt)
386 {
387         unsigned long flags;
388         unsigned int v;
389
390         /* Lapic used as dummy for broadcast ? */
391         if (evt->features & CLOCK_EVT_FEAT_DUMMY)
392                 return;
393
394         local_irq_save(flags);
395
396         switch (mode) {
397         case CLOCK_EVT_MODE_PERIODIC:
398         case CLOCK_EVT_MODE_ONESHOT:
399                 __setup_APIC_LVTT(calibration_result,
400                                   mode != CLOCK_EVT_MODE_PERIODIC, 1);
401                 break;
402         case CLOCK_EVT_MODE_UNUSED:
403         case CLOCK_EVT_MODE_SHUTDOWN:
404                 v = apic_read(APIC_LVTT);
405                 v |= (APIC_LVT_MASKED | LOCAL_TIMER_VECTOR);
406                 apic_write(APIC_LVTT, v);
407                 apic_write(APIC_TMICT, 0xffffffff);
408                 break;
409         case CLOCK_EVT_MODE_RESUME:
410                 /* Nothing to do here */
411                 break;
412         }
413
414         local_irq_restore(flags);
415 }
416
417 /*
418  * Local APIC timer broadcast function
419  */
420 static void lapic_timer_broadcast(const struct cpumask *mask)
421 {
422 #ifdef CONFIG_SMP
423         apic->send_IPI_mask(mask, LOCAL_TIMER_VECTOR);
424 #endif
425 }
426
427 /*
428  * Setup the local APIC timer for this CPU. Copy the initilized values
429  * of the boot CPU and register the clock event in the framework.
430  */
431 static void __cpuinit setup_APIC_timer(void)
432 {
433         struct clock_event_device *levt = &__get_cpu_var(lapic_events);
434
435         memcpy(levt, &lapic_clockevent, sizeof(*levt));
436         levt->cpumask = cpumask_of(smp_processor_id());
437
438         clockevents_register_device(levt);
439 }
440
441 /*
442  * In this functions we calibrate APIC bus clocks to the external timer.
443  *
444  * We want to do the calibration only once since we want to have local timer
445  * irqs syncron. CPUs connected by the same APIC bus have the very same bus
446  * frequency.
447  *
448  * This was previously done by reading the PIT/HPET and waiting for a wrap
449  * around to find out, that a tick has elapsed. I have a box, where the PIT
450  * readout is broken, so it never gets out of the wait loop again. This was
451  * also reported by others.
452  *
453  * Monitoring the jiffies value is inaccurate and the clockevents
454  * infrastructure allows us to do a simple substitution of the interrupt
455  * handler.
456  *
457  * The calibration routine also uses the pm_timer when possible, as the PIT
458  * happens to run way too slow (factor 2.3 on my VAIO CoreDuo, which goes
459  * back to normal later in the boot process).
460  */
461
462 #define LAPIC_CAL_LOOPS         (HZ/10)
463
464 static __initdata int lapic_cal_loops = -1;
465 static __initdata long lapic_cal_t1, lapic_cal_t2;
466 static __initdata unsigned long long lapic_cal_tsc1, lapic_cal_tsc2;
467 static __initdata unsigned long lapic_cal_pm1, lapic_cal_pm2;
468 static __initdata unsigned long lapic_cal_j1, lapic_cal_j2;
469
470 /*
471  * Temporary interrupt handler.
472  */
473 static void __init lapic_cal_handler(struct clock_event_device *dev)
474 {
475         unsigned long long tsc = 0;
476         long tapic = apic_read(APIC_TMCCT);
477         unsigned long pm = acpi_pm_read_early();
478
479         if (cpu_has_tsc)
480                 rdtscll(tsc);
481
482         switch (lapic_cal_loops++) {
483         case 0:
484                 lapic_cal_t1 = tapic;
485                 lapic_cal_tsc1 = tsc;
486                 lapic_cal_pm1 = pm;
487                 lapic_cal_j1 = jiffies;
488                 break;
489
490         case LAPIC_CAL_LOOPS:
491                 lapic_cal_t2 = tapic;
492                 lapic_cal_tsc2 = tsc;
493                 if (pm < lapic_cal_pm1)
494                         pm += ACPI_PM_OVRRUN;
495                 lapic_cal_pm2 = pm;
496                 lapic_cal_j2 = jiffies;
497                 break;
498         }
499 }
500
501 static int __init
502 calibrate_by_pmtimer(long deltapm, long *delta, long *deltatsc)
503 {
504         const long pm_100ms = PMTMR_TICKS_PER_SEC / 10;
505         const long pm_thresh = pm_100ms / 100;
506         unsigned long mult;
507         u64 res;
508
509 #ifndef CONFIG_X86_PM_TIMER
510         return -1;
511 #endif
512
513         apic_printk(APIC_VERBOSE, "... PM-Timer delta = %ld\n", deltapm);
514
515         /* Check, if the PM timer is available */
516         if (!deltapm)
517                 return -1;
518
519         mult = clocksource_hz2mult(PMTMR_TICKS_PER_SEC, 22);
520
521         if (deltapm > (pm_100ms - pm_thresh) &&
522             deltapm < (pm_100ms + pm_thresh)) {
523                 apic_printk(APIC_VERBOSE, "... PM-Timer result ok\n");
524                 return 0;
525         }
526
527         res = (((u64)deltapm) *  mult) >> 22;
528         do_div(res, 1000000);
529         pr_warning("APIC calibration not consistent "
530                    "with PM-Timer: %ldms instead of 100ms\n",(long)res);
531
532         /* Correct the lapic counter value */
533         res = (((u64)(*delta)) * pm_100ms);
534         do_div(res, deltapm);
535         pr_info("APIC delta adjusted to PM-Timer: "
536                 "%lu (%ld)\n", (unsigned long)res, *delta);
537         *delta = (long)res;
538
539         /* Correct the tsc counter value */
540         if (cpu_has_tsc) {
541                 res = (((u64)(*deltatsc)) * pm_100ms);
542                 do_div(res, deltapm);
543                 apic_printk(APIC_VERBOSE, "TSC delta adjusted to "
544                                           "PM-Timer: %lu (%ld) \n",
545                                         (unsigned long)res, *deltatsc);
546                 *deltatsc = (long)res;
547         }
548
549         return 0;
550 }
551
552 static int __init calibrate_APIC_clock(void)
553 {
554         struct clock_event_device *levt = &__get_cpu_var(lapic_events);
555         void (*real_handler)(struct clock_event_device *dev);
556         unsigned long deltaj;
557         long delta, deltatsc;
558         int pm_referenced = 0;
559
560         local_irq_disable();
561
562         /* Replace the global interrupt handler */
563         real_handler = global_clock_event->event_handler;
564         global_clock_event->event_handler = lapic_cal_handler;
565
566         /*
567          * Setup the APIC counter to maximum. There is no way the lapic
568          * can underflow in the 100ms detection time frame
569          */
570         __setup_APIC_LVTT(0xffffffff, 0, 0);
571
572         /* Let the interrupts run */
573         local_irq_enable();
574
575         while (lapic_cal_loops <= LAPIC_CAL_LOOPS)
576                 cpu_relax();
577
578         local_irq_disable();
579
580         /* Restore the real event handler */
581         global_clock_event->event_handler = real_handler;
582
583         /* Build delta t1-t2 as apic timer counts down */
584         delta = lapic_cal_t1 - lapic_cal_t2;
585         apic_printk(APIC_VERBOSE, "... lapic delta = %ld\n", delta);
586
587         deltatsc = (long)(lapic_cal_tsc2 - lapic_cal_tsc1);
588
589         /* we trust the PM based calibration if possible */
590         pm_referenced = !calibrate_by_pmtimer(lapic_cal_pm2 - lapic_cal_pm1,
591                                         &delta, &deltatsc);
592
593         /* Calculate the scaled math multiplication factor */
594         lapic_clockevent.mult = div_sc(delta, TICK_NSEC * LAPIC_CAL_LOOPS,
595                                        lapic_clockevent.shift);
596         lapic_clockevent.max_delta_ns =
597                 clockevent_delta2ns(0x7FFFFF, &lapic_clockevent);
598         lapic_clockevent.min_delta_ns =
599                 clockevent_delta2ns(0xF, &lapic_clockevent);
600
601         calibration_result = (delta * APIC_DIVISOR) / LAPIC_CAL_LOOPS;
602
603         apic_printk(APIC_VERBOSE, "..... delta %ld\n", delta);
604         apic_printk(APIC_VERBOSE, "..... mult: %ld\n", lapic_clockevent.mult);
605         apic_printk(APIC_VERBOSE, "..... calibration result: %u\n",
606                     calibration_result);
607
608         if (cpu_has_tsc) {
609                 apic_printk(APIC_VERBOSE, "..... CPU clock speed is "
610                             "%ld.%04ld MHz.\n",
611                             (deltatsc / LAPIC_CAL_LOOPS) / (1000000 / HZ),
612                             (deltatsc / LAPIC_CAL_LOOPS) % (1000000 / HZ));
613         }
614
615         apic_printk(APIC_VERBOSE, "..... host bus clock speed is "
616                     "%u.%04u MHz.\n",
617                     calibration_result / (1000000 / HZ),
618                     calibration_result % (1000000 / HZ));
619
620         /*
621          * Do a sanity check on the APIC calibration result
622          */
623         if (calibration_result < (1000000 / HZ)) {
624                 local_irq_enable();
625                 pr_warning("APIC frequency too slow, disabling apic timer\n");
626                 return -1;
627         }
628
629         levt->features &= ~CLOCK_EVT_FEAT_DUMMY;
630
631         /*
632          * PM timer calibration failed or not turned on
633          * so lets try APIC timer based calibration
634          */
635         if (!pm_referenced) {
636                 apic_printk(APIC_VERBOSE, "... verify APIC timer\n");
637
638                 /*
639                  * Setup the apic timer manually
640                  */
641                 levt->event_handler = lapic_cal_handler;
642                 lapic_timer_setup(CLOCK_EVT_MODE_PERIODIC, levt);
643                 lapic_cal_loops = -1;
644
645                 /* Let the interrupts run */
646                 local_irq_enable();
647
648                 while (lapic_cal_loops <= LAPIC_CAL_LOOPS)
649                         cpu_relax();
650
651                 /* Stop the lapic timer */
652                 lapic_timer_setup(CLOCK_EVT_MODE_SHUTDOWN, levt);
653
654                 /* Jiffies delta */
655                 deltaj = lapic_cal_j2 - lapic_cal_j1;
656                 apic_printk(APIC_VERBOSE, "... jiffies delta = %lu\n", deltaj);
657
658                 /* Check, if the jiffies result is consistent */
659                 if (deltaj >= LAPIC_CAL_LOOPS-2 && deltaj <= LAPIC_CAL_LOOPS+2)
660                         apic_printk(APIC_VERBOSE, "... jiffies result ok\n");
661                 else
662                         levt->features |= CLOCK_EVT_FEAT_DUMMY;
663         } else
664                 local_irq_enable();
665
666         if (levt->features & CLOCK_EVT_FEAT_DUMMY) {
667                 pr_warning("APIC timer disabled due to verification failure\n");
668                         return -1;
669         }
670
671         return 0;
672 }
673
674 /*
675  * Setup the boot APIC
676  *
677  * Calibrate and verify the result.
678  */
679 void __init setup_boot_APIC_clock(void)
680 {
681         /*
682          * The local apic timer can be disabled via the kernel
683          * commandline or from the CPU detection code. Register the lapic
684          * timer as a dummy clock event source on SMP systems, so the
685          * broadcast mechanism is used. On UP systems simply ignore it.
686          */
687         if (disable_apic_timer) {
688                 pr_info("Disabling APIC timer\n");
689                 /* No broadcast on UP ! */
690                 if (num_possible_cpus() > 1) {
691                         lapic_clockevent.mult = 1;
692                         setup_APIC_timer();
693                 }
694                 return;
695         }
696
697         apic_printk(APIC_VERBOSE, "Using local APIC timer interrupts.\n"
698                     "calibrating APIC timer ...\n");
699
700         if (calibrate_APIC_clock()) {
701                 /* No broadcast on UP ! */
702                 if (num_possible_cpus() > 1)
703                         setup_APIC_timer();
704                 return;
705         }
706
707         /*
708          * If nmi_watchdog is set to IO_APIC, we need the
709          * PIT/HPET going.  Otherwise register lapic as a dummy
710          * device.
711          */
712         if (nmi_watchdog != NMI_IO_APIC)
713                 lapic_clockevent.features &= ~CLOCK_EVT_FEAT_DUMMY;
714         else
715                 pr_warning("APIC timer registered as dummy,"
716                         " due to nmi_watchdog=%d!\n", nmi_watchdog);
717
718         /* Setup the lapic or request the broadcast */
719         setup_APIC_timer();
720 }
721
722 void __cpuinit setup_secondary_APIC_clock(void)
723 {
724         setup_APIC_timer();
725 }
726
727 /*
728  * The guts of the apic timer interrupt
729  */
730 static void local_apic_timer_interrupt(void)
731 {
732         int cpu = smp_processor_id();
733         struct clock_event_device *evt = &per_cpu(lapic_events, cpu);
734
735         /*
736          * Normally we should not be here till LAPIC has been initialized but
737          * in some cases like kdump, its possible that there is a pending LAPIC
738          * timer interrupt from previous kernel's context and is delivered in
739          * new kernel the moment interrupts are enabled.
740          *
741          * Interrupts are enabled early and LAPIC is setup much later, hence
742          * its possible that when we get here evt->event_handler is NULL.
743          * Check for event_handler being NULL and discard the interrupt as
744          * spurious.
745          */
746         if (!evt->event_handler) {
747                 pr_warning("Spurious LAPIC timer interrupt on cpu %d\n", cpu);
748                 /* Switch it off */
749                 lapic_timer_setup(CLOCK_EVT_MODE_SHUTDOWN, evt);
750                 return;
751         }
752
753         /*
754          * the NMI deadlock-detector uses this.
755          */
756         inc_irq_stat(apic_timer_irqs);
757
758         evt->event_handler(evt);
759
760         perf_counter_unthrottle();
761 }
762
763 /*
764  * Local APIC timer interrupt. This is the most natural way for doing
765  * local interrupts, but local timer interrupts can be emulated by
766  * broadcast interrupts too. [in case the hw doesn't support APIC timers]
767  *
768  * [ if a single-CPU system runs an SMP kernel then we call the local
769  *   interrupt as well. Thus we cannot inline the local irq ... ]
770  */
771 void __irq_entry smp_apic_timer_interrupt(struct pt_regs *regs)
772 {
773         struct pt_regs *old_regs = set_irq_regs(regs);
774
775         /*
776          * NOTE! We'd better ACK the irq immediately,
777          * because timer handling can be slow.
778          */
779         ack_APIC_irq();
780         /*
781          * update_process_times() expects us to have done irq_enter().
782          * Besides, if we don't timer interrupts ignore the global
783          * interrupt lock, which is the WrongThing (tm) to do.
784          */
785         exit_idle();
786         irq_enter();
787         local_apic_timer_interrupt();
788         irq_exit();
789
790         set_irq_regs(old_regs);
791 }
792
793 int setup_profiling_timer(unsigned int multiplier)
794 {
795         return -EINVAL;
796 }
797
798 /*
799  * Local APIC start and shutdown
800  */
801
802 /**
803  * clear_local_APIC - shutdown the local APIC
804  *
805  * This is called, when a CPU is disabled and before rebooting, so the state of
806  * the local APIC has no dangling leftovers. Also used to cleanout any BIOS
807  * leftovers during boot.
808  */
809 void clear_local_APIC(void)
810 {
811         int maxlvt;
812         u32 v;
813
814         /* APIC hasn't been mapped yet */
815         if (!x2apic && !apic_phys)
816                 return;
817
818         maxlvt = lapic_get_maxlvt();
819         /*
820          * Masking an LVT entry can trigger a local APIC error
821          * if the vector is zero. Mask LVTERR first to prevent this.
822          */
823         if (maxlvt >= 3) {
824                 v = ERROR_APIC_VECTOR; /* any non-zero vector will do */
825                 apic_write(APIC_LVTERR, v | APIC_LVT_MASKED);
826         }
827         /*
828          * Careful: we have to set masks only first to deassert
829          * any level-triggered sources.
830          */
831         v = apic_read(APIC_LVTT);
832         apic_write(APIC_LVTT, v | APIC_LVT_MASKED);
833         v = apic_read(APIC_LVT0);
834         apic_write(APIC_LVT0, v | APIC_LVT_MASKED);
835         v = apic_read(APIC_LVT1);
836         apic_write(APIC_LVT1, v | APIC_LVT_MASKED);
837         if (maxlvt >= 4) {
838                 v = apic_read(APIC_LVTPC);
839                 apic_write(APIC_LVTPC, v | APIC_LVT_MASKED);
840         }
841
842         /* lets not touch this if we didn't frob it */
843 #if defined(CONFIG_X86_MCE_P4THERMAL) || defined(CONFIG_X86_MCE_INTEL)
844         if (maxlvt >= 5) {
845                 v = apic_read(APIC_LVTTHMR);
846                 apic_write(APIC_LVTTHMR, v | APIC_LVT_MASKED);
847         }
848 #endif
849 #ifdef CONFIG_X86_MCE_INTEL
850         if (maxlvt >= 6) {
851                 v = apic_read(APIC_LVTCMCI);
852                 if (!(v & APIC_LVT_MASKED))
853                         apic_write(APIC_LVTCMCI, v | APIC_LVT_MASKED);
854         }
855 #endif
856
857         /*
858          * Clean APIC state for other OSs:
859          */
860         apic_write(APIC_LVTT, APIC_LVT_MASKED);
861         apic_write(APIC_LVT0, APIC_LVT_MASKED);
862         apic_write(APIC_LVT1, APIC_LVT_MASKED);
863         if (maxlvt >= 3)
864                 apic_write(APIC_LVTERR, APIC_LVT_MASKED);
865         if (maxlvt >= 4)
866                 apic_write(APIC_LVTPC, APIC_LVT_MASKED);
867
868         /* Integrated APIC (!82489DX) ? */
869         if (lapic_is_integrated()) {
870                 if (maxlvt > 3)
871                         /* Clear ESR due to Pentium errata 3AP and 11AP */
872                         apic_write(APIC_ESR, 0);
873                 apic_read(APIC_ESR);
874         }
875 }
876
877 /**
878  * disable_local_APIC - clear and disable the local APIC
879  */
880 void disable_local_APIC(void)
881 {
882         unsigned int value;
883
884         /* APIC hasn't been mapped yet */
885         if (!apic_phys)
886                 return;
887
888         clear_local_APIC();
889
890         /*
891          * Disable APIC (implies clearing of registers
892          * for 82489DX!).
893          */
894         value = apic_read(APIC_SPIV);
895         value &= ~APIC_SPIV_APIC_ENABLED;
896         apic_write(APIC_SPIV, value);
897
898 #ifdef CONFIG_X86_32
899         /*
900          * When LAPIC was disabled by the BIOS and enabled by the kernel,
901          * restore the disabled state.
902          */
903         if (enabled_via_apicbase) {
904                 unsigned int l, h;
905
906                 rdmsr(MSR_IA32_APICBASE, l, h);
907                 l &= ~MSR_IA32_APICBASE_ENABLE;
908                 wrmsr(MSR_IA32_APICBASE, l, h);
909         }
910 #endif
911 }
912
913 /*
914  * If Linux enabled the LAPIC against the BIOS default disable it down before
915  * re-entering the BIOS on shutdown.  Otherwise the BIOS may get confused and
916  * not power-off.  Additionally clear all LVT entries before disable_local_APIC
917  * for the case where Linux didn't enable the LAPIC.
918  */
919 void lapic_shutdown(void)
920 {
921         unsigned long flags;
922
923         if (!cpu_has_apic)
924                 return;
925
926         local_irq_save(flags);
927
928 #ifdef CONFIG_X86_32
929         if (!enabled_via_apicbase)
930                 clear_local_APIC();
931         else
932 #endif
933                 disable_local_APIC();
934
935
936         local_irq_restore(flags);
937 }
938
939 /*
940  * This is to verify that we're looking at a real local APIC.
941  * Check these against your board if the CPUs aren't getting
942  * started for no apparent reason.
943  */
944 int __init verify_local_APIC(void)
945 {
946         unsigned int reg0, reg1;
947
948         /*
949          * The version register is read-only in a real APIC.
950          */
951         reg0 = apic_read(APIC_LVR);
952         apic_printk(APIC_DEBUG, "Getting VERSION: %x\n", reg0);
953         apic_write(APIC_LVR, reg0 ^ APIC_LVR_MASK);
954         reg1 = apic_read(APIC_LVR);
955         apic_printk(APIC_DEBUG, "Getting VERSION: %x\n", reg1);
956
957         /*
958          * The two version reads above should print the same
959          * numbers.  If the second one is different, then we
960          * poke at a non-APIC.
961          */
962         if (reg1 != reg0)
963                 return 0;
964
965         /*
966          * Check if the version looks reasonably.
967          */
968         reg1 = GET_APIC_VERSION(reg0);
969         if (reg1 == 0x00 || reg1 == 0xff)
970                 return 0;
971         reg1 = lapic_get_maxlvt();
972         if (reg1 < 0x02 || reg1 == 0xff)
973                 return 0;
974
975         /*
976          * The ID register is read/write in a real APIC.
977          */
978         reg0 = apic_read(APIC_ID);
979         apic_printk(APIC_DEBUG, "Getting ID: %x\n", reg0);
980         apic_write(APIC_ID, reg0 ^ apic->apic_id_mask);
981         reg1 = apic_read(APIC_ID);
982         apic_printk(APIC_DEBUG, "Getting ID: %x\n", reg1);
983         apic_write(APIC_ID, reg0);
984         if (reg1 != (reg0 ^ apic->apic_id_mask))
985                 return 0;
986
987         /*
988          * The next two are just to see if we have sane values.
989          * They're only really relevant if we're in Virtual Wire
990          * compatibility mode, but most boxes are anymore.
991          */
992         reg0 = apic_read(APIC_LVT0);
993         apic_printk(APIC_DEBUG, "Getting LVT0: %x\n", reg0);
994         reg1 = apic_read(APIC_LVT1);
995         apic_printk(APIC_DEBUG, "Getting LVT1: %x\n", reg1);
996
997         return 1;
998 }
999
1000 /**
1001  * sync_Arb_IDs - synchronize APIC bus arbitration IDs
1002  */
1003 void __init sync_Arb_IDs(void)
1004 {
1005         /*
1006          * Unsupported on P4 - see Intel Dev. Manual Vol. 3, Ch. 8.6.1 And not
1007          * needed on AMD.
1008          */
1009         if (modern_apic() || boot_cpu_data.x86_vendor == X86_VENDOR_AMD)
1010                 return;
1011
1012         /*
1013          * Wait for idle.
1014          */
1015         apic_wait_icr_idle();
1016
1017         apic_printk(APIC_DEBUG, "Synchronizing Arb IDs.\n");
1018         apic_write(APIC_ICR, APIC_DEST_ALLINC |
1019                         APIC_INT_LEVELTRIG | APIC_DM_INIT);
1020 }
1021
1022 /*
1023  * An initial setup of the virtual wire mode.
1024  */
1025 void __init init_bsp_APIC(void)
1026 {
1027         unsigned int value;
1028
1029         /*
1030          * Don't do the setup now if we have a SMP BIOS as the
1031          * through-I/O-APIC virtual wire mode might be active.
1032          */
1033         if (smp_found_config || !cpu_has_apic)
1034                 return;
1035
1036         /*
1037          * Do not trust the local APIC being empty at bootup.
1038          */
1039         clear_local_APIC();
1040
1041         /*
1042          * Enable APIC.
1043          */
1044         value = apic_read(APIC_SPIV);
1045         value &= ~APIC_VECTOR_MASK;
1046         value |= APIC_SPIV_APIC_ENABLED;
1047
1048 #ifdef CONFIG_X86_32
1049         /* This bit is reserved on P4/Xeon and should be cleared */
1050         if ((boot_cpu_data.x86_vendor == X86_VENDOR_INTEL) &&
1051             (boot_cpu_data.x86 == 15))
1052                 value &= ~APIC_SPIV_FOCUS_DISABLED;
1053         else
1054 #endif
1055                 value |= APIC_SPIV_FOCUS_DISABLED;
1056         value |= SPURIOUS_APIC_VECTOR;
1057         apic_write(APIC_SPIV, value);
1058
1059         /*
1060          * Set up the virtual wire mode.
1061          */
1062         apic_write(APIC_LVT0, APIC_DM_EXTINT);
1063         value = APIC_DM_NMI;
1064         if (!lapic_is_integrated())             /* 82489DX */
1065                 value |= APIC_LVT_LEVEL_TRIGGER;
1066         apic_write(APIC_LVT1, value);
1067 }
1068
1069 static void __cpuinit lapic_setup_esr(void)
1070 {
1071         unsigned int oldvalue, value, maxlvt;
1072
1073         if (!lapic_is_integrated()) {
1074                 pr_info("No ESR for 82489DX.\n");
1075                 return;
1076         }
1077
1078         if (apic->disable_esr) {
1079                 /*
1080                  * Something untraceable is creating bad interrupts on
1081                  * secondary quads ... for the moment, just leave the
1082                  * ESR disabled - we can't do anything useful with the
1083                  * errors anyway - mbligh
1084                  */
1085                 pr_info("Leaving ESR disabled.\n");
1086                 return;
1087         }
1088
1089         maxlvt = lapic_get_maxlvt();
1090         if (maxlvt > 3)         /* Due to the Pentium erratum 3AP. */
1091                 apic_write(APIC_ESR, 0);
1092         oldvalue = apic_read(APIC_ESR);
1093
1094         /* enables sending errors */
1095         value = ERROR_APIC_VECTOR;
1096         apic_write(APIC_LVTERR, value);
1097
1098         /*
1099          * spec says clear errors after enabling vector.
1100          */
1101         if (maxlvt > 3)
1102                 apic_write(APIC_ESR, 0);
1103         value = apic_read(APIC_ESR);
1104         if (value != oldvalue)
1105                 apic_printk(APIC_VERBOSE, "ESR value before enabling "
1106                         "vector: 0x%08x  after: 0x%08x\n",
1107                         oldvalue, value);
1108 }
1109
1110
1111 /**
1112  * setup_local_APIC - setup the local APIC
1113  */
1114 void __cpuinit setup_local_APIC(void)
1115 {
1116         unsigned int value;
1117         int i, j;
1118
1119         if (disable_apic) {
1120                 arch_disable_smp_support();
1121                 return;
1122         }
1123
1124 #ifdef CONFIG_X86_32
1125         /* Pound the ESR really hard over the head with a big hammer - mbligh */
1126         if (lapic_is_integrated() && apic->disable_esr) {
1127                 apic_write(APIC_ESR, 0);
1128                 apic_write(APIC_ESR, 0);
1129                 apic_write(APIC_ESR, 0);
1130                 apic_write(APIC_ESR, 0);
1131         }
1132 #endif
1133         perf_counters_lapic_init(0);
1134
1135         preempt_disable();
1136
1137         /*
1138          * Double-check whether this APIC is really registered.
1139          * This is meaningless in clustered apic mode, so we skip it.
1140          */
1141         if (!apic->apic_id_registered())
1142                 BUG();
1143
1144         /*
1145          * Intel recommends to set DFR, LDR and TPR before enabling
1146          * an APIC.  See e.g. "AP-388 82489DX User's Manual" (Intel
1147          * document number 292116).  So here it goes...
1148          */
1149         apic->init_apic_ldr();
1150
1151         /*
1152          * Set Task Priority to 'accept all'. We never change this
1153          * later on.
1154          */
1155         value = apic_read(APIC_TASKPRI);
1156         value &= ~APIC_TPRI_MASK;
1157         apic_write(APIC_TASKPRI, value);
1158
1159         /*
1160          * After a crash, we no longer service the interrupts and a pending
1161          * interrupt from previous kernel might still have ISR bit set.
1162          *
1163          * Most probably by now CPU has serviced that pending interrupt and
1164          * it might not have done the ack_APIC_irq() because it thought,
1165          * interrupt came from i8259 as ExtInt. LAPIC did not get EOI so it
1166          * does not clear the ISR bit and cpu thinks it has already serivced
1167          * the interrupt. Hence a vector might get locked. It was noticed
1168          * for timer irq (vector 0x31). Issue an extra EOI to clear ISR.
1169          */
1170         for (i = APIC_ISR_NR - 1; i >= 0; i--) {
1171                 value = apic_read(APIC_ISR + i*0x10);
1172                 for (j = 31; j >= 0; j--) {
1173                         if (value & (1<<j))
1174                                 ack_APIC_irq();
1175                 }
1176         }
1177
1178         /*
1179          * Now that we are all set up, enable the APIC
1180          */
1181         value = apic_read(APIC_SPIV);
1182         value &= ~APIC_VECTOR_MASK;
1183         /*
1184          * Enable APIC
1185          */
1186         value |= APIC_SPIV_APIC_ENABLED;
1187
1188 #ifdef CONFIG_X86_32
1189         /*
1190          * Some unknown Intel IO/APIC (or APIC) errata is biting us with
1191          * certain networking cards. If high frequency interrupts are
1192          * happening on a particular IOAPIC pin, plus the IOAPIC routing
1193          * entry is masked/unmasked at a high rate as well then sooner or
1194          * later IOAPIC line gets 'stuck', no more interrupts are received
1195          * from the device. If focus CPU is disabled then the hang goes
1196          * away, oh well :-(
1197          *
1198          * [ This bug can be reproduced easily with a level-triggered
1199          *   PCI Ne2000 networking cards and PII/PIII processors, dual
1200          *   BX chipset. ]
1201          */
1202         /*
1203          * Actually disabling the focus CPU check just makes the hang less
1204          * frequent as it makes the interrupt distributon model be more
1205          * like LRU than MRU (the short-term load is more even across CPUs).
1206          * See also the comment in end_level_ioapic_irq().  --macro
1207          */
1208
1209         /*
1210          * - enable focus processor (bit==0)
1211          * - 64bit mode always use processor focus
1212          *   so no need to set it
1213          */
1214         value &= ~APIC_SPIV_FOCUS_DISABLED;
1215 #endif
1216
1217         /*
1218          * Set spurious IRQ vector
1219          */
1220         value |= SPURIOUS_APIC_VECTOR;
1221         apic_write(APIC_SPIV, value);
1222
1223         /*
1224          * Set up LVT0, LVT1:
1225          *
1226          * set up through-local-APIC on the BP's LINT0. This is not
1227          * strictly necessary in pure symmetric-IO mode, but sometimes
1228          * we delegate interrupts to the 8259A.
1229          */
1230         /*
1231          * TODO: set up through-local-APIC from through-I/O-APIC? --macro
1232          */
1233         value = apic_read(APIC_LVT0) & APIC_LVT_MASKED;
1234         if (!smp_processor_id() && (pic_mode || !value)) {
1235                 value = APIC_DM_EXTINT;
1236                 apic_printk(APIC_VERBOSE, "enabled ExtINT on CPU#%d\n",
1237                                 smp_processor_id());
1238         } else {
1239                 value = APIC_DM_EXTINT | APIC_LVT_MASKED;
1240                 apic_printk(APIC_VERBOSE, "masked ExtINT on CPU#%d\n",
1241                                 smp_processor_id());
1242         }
1243         apic_write(APIC_LVT0, value);
1244
1245         /*
1246          * only the BP should see the LINT1 NMI signal, obviously.
1247          */
1248         if (!smp_processor_id())
1249                 value = APIC_DM_NMI;
1250         else
1251                 value = APIC_DM_NMI | APIC_LVT_MASKED;
1252         if (!lapic_is_integrated())             /* 82489DX */
1253                 value |= APIC_LVT_LEVEL_TRIGGER;
1254         apic_write(APIC_LVT1, value);
1255
1256         preempt_enable();
1257
1258 #ifdef CONFIG_X86_MCE_INTEL
1259         /* Recheck CMCI information after local APIC is up on CPU #0 */
1260         if (smp_processor_id() == 0)
1261                 cmci_recheck();
1262 #endif
1263 }
1264
1265 void __cpuinit end_local_APIC_setup(void)
1266 {
1267         lapic_setup_esr();
1268
1269 #ifdef CONFIG_X86_32
1270         {
1271                 unsigned int value;
1272                 /* Disable the local apic timer */
1273                 value = apic_read(APIC_LVTT);
1274                 value |= (APIC_LVT_MASKED | LOCAL_TIMER_VECTOR);
1275                 apic_write(APIC_LVTT, value);
1276         }
1277 #endif
1278
1279         setup_apic_nmi_watchdog(NULL);
1280         apic_pm_activate();
1281 }
1282
1283 #ifdef CONFIG_X86_X2APIC
1284 void check_x2apic(void)
1285 {
1286         if (x2apic_enabled()) {
1287                 pr_info("x2apic enabled by BIOS, switching to x2apic ops\n");
1288                 x2apic_preenabled = x2apic = 1;
1289         }
1290 }
1291
1292 void enable_x2apic(void)
1293 {
1294         int msr, msr2;
1295
1296         if (!x2apic)
1297                 return;
1298
1299         rdmsr(MSR_IA32_APICBASE, msr, msr2);
1300         if (!(msr & X2APIC_ENABLE)) {
1301                 pr_info("Enabling x2apic\n");
1302                 wrmsr(MSR_IA32_APICBASE, msr | X2APIC_ENABLE, 0);
1303         }
1304 }
1305
1306 void __init enable_IR_x2apic(void)
1307 {
1308 #ifdef CONFIG_INTR_REMAP
1309         int ret;
1310         unsigned long flags;
1311         struct IO_APIC_route_entry **ioapic_entries = NULL;
1312
1313         if (!cpu_has_x2apic)
1314                 return;
1315
1316         if (!x2apic_preenabled && disable_x2apic) {
1317                 pr_info("Skipped enabling x2apic and Interrupt-remapping "
1318                         "because of nox2apic\n");
1319                 return;
1320         }
1321
1322         if (x2apic_preenabled && disable_x2apic)
1323                 panic("Bios already enabled x2apic, can't enforce nox2apic");
1324
1325         if (!x2apic_preenabled && skip_ioapic_setup) {
1326                 pr_info("Skipped enabling x2apic and Interrupt-remapping "
1327                         "because of skipping io-apic setup\n");
1328                 return;
1329         }
1330
1331         ret = dmar_table_init();
1332         if (ret) {
1333                 pr_info("dmar_table_init() failed with %d:\n", ret);
1334
1335                 if (x2apic_preenabled)
1336                         panic("x2apic enabled by bios. But IR enabling failed");
1337                 else
1338                         pr_info("Not enabling x2apic,Intr-remapping\n");
1339                 return;
1340         }
1341
1342         ioapic_entries = alloc_ioapic_entries();
1343         if (!ioapic_entries) {
1344                 pr_info("Allocate ioapic_entries failed: %d\n", ret);
1345                 goto end;
1346         }
1347
1348         ret = save_IO_APIC_setup(ioapic_entries);
1349         if (ret) {
1350                 pr_info("Saving IO-APIC state failed: %d\n", ret);
1351                 goto end;
1352         }
1353
1354         local_irq_save(flags);
1355         mask_IO_APIC_setup(ioapic_entries);
1356         mask_8259A();
1357
1358         ret = enable_intr_remapping(EIM_32BIT_APIC_ID);
1359
1360         if (ret && x2apic_preenabled) {
1361                 local_irq_restore(flags);
1362                 panic("x2apic enabled by bios. But IR enabling failed");
1363         }
1364
1365         if (ret)
1366                 goto end_restore;
1367
1368         if (!x2apic) {
1369                 x2apic = 1;
1370                 enable_x2apic();
1371         }
1372
1373 end_restore:
1374         if (ret)
1375                 /*
1376                  * IR enabling failed
1377                  */
1378                 restore_IO_APIC_setup(ioapic_entries);
1379         else
1380                 reinit_intr_remapped_IO_APIC(x2apic_preenabled, ioapic_entries);
1381
1382         unmask_8259A();
1383         local_irq_restore(flags);
1384
1385 end:
1386         if (!ret) {
1387                 if (!x2apic_preenabled)
1388                         pr_info("Enabled x2apic and interrupt-remapping\n");
1389                 else
1390                         pr_info("Enabled Interrupt-remapping\n");
1391         } else
1392                 pr_err("Failed to enable Interrupt-remapping and x2apic\n");
1393         if (ioapic_entries)
1394                 free_ioapic_entries(ioapic_entries);
1395 #else
1396         if (!cpu_has_x2apic)
1397                 return;
1398
1399         if (x2apic_preenabled)
1400                 panic("x2apic enabled prior OS handover,"
1401                       " enable CONFIG_INTR_REMAP");
1402
1403         pr_info("Enable CONFIG_INTR_REMAP for enabling intr-remapping "
1404                 " and x2apic\n");
1405 #endif
1406
1407         return;
1408 }
1409 #endif /* CONFIG_X86_X2APIC */
1410
1411 #ifdef CONFIG_X86_64
1412 /*
1413  * Detect and enable local APICs on non-SMP boards.
1414  * Original code written by Keir Fraser.
1415  * On AMD64 we trust the BIOS - if it says no APIC it is likely
1416  * not correctly set up (usually the APIC timer won't work etc.)
1417  */
1418 static int __init detect_init_APIC(void)
1419 {
1420         if (!cpu_has_apic) {
1421                 pr_info("No local APIC present\n");
1422                 return -1;
1423         }
1424
1425         mp_lapic_addr = APIC_DEFAULT_PHYS_BASE;
1426         boot_cpu_physical_apicid = 0;
1427         return 0;
1428 }
1429 #else
1430 /*
1431  * Detect and initialize APIC
1432  */
1433 static int __init detect_init_APIC(void)
1434 {
1435         u32 h, l, features;
1436
1437         /* Disabled by kernel option? */
1438         if (disable_apic)
1439                 return -1;
1440
1441         switch (boot_cpu_data.x86_vendor) {
1442         case X86_VENDOR_AMD:
1443                 if ((boot_cpu_data.x86 == 6 && boot_cpu_data.x86_model > 1) ||
1444                     (boot_cpu_data.x86 >= 15))
1445                         break;
1446                 goto no_apic;
1447         case X86_VENDOR_INTEL:
1448                 if (boot_cpu_data.x86 == 6 || boot_cpu_data.x86 == 15 ||
1449                     (boot_cpu_data.x86 == 5 && cpu_has_apic))
1450                         break;
1451                 goto no_apic;
1452         default:
1453                 goto no_apic;
1454         }
1455
1456         if (!cpu_has_apic) {
1457                 /*
1458                  * Over-ride BIOS and try to enable the local APIC only if
1459                  * "lapic" specified.
1460                  */
1461                 if (!force_enable_local_apic) {
1462                         pr_info("Local APIC disabled by BIOS -- "
1463                                 "you can enable it with \"lapic\"\n");
1464                         return -1;
1465                 }
1466                 /*
1467                  * Some BIOSes disable the local APIC in the APIC_BASE
1468                  * MSR. This can only be done in software for Intel P6 or later
1469                  * and AMD K7 (Model > 1) or later.
1470                  */
1471                 rdmsr(MSR_IA32_APICBASE, l, h);
1472                 if (!(l & MSR_IA32_APICBASE_ENABLE)) {
1473                         pr_info("Local APIC disabled by BIOS -- reenabling.\n");
1474                         l &= ~MSR_IA32_APICBASE_BASE;
1475                         l |= MSR_IA32_APICBASE_ENABLE | APIC_DEFAULT_PHYS_BASE;
1476                         wrmsr(MSR_IA32_APICBASE, l, h);
1477                         enabled_via_apicbase = 1;
1478                 }
1479         }
1480         /*
1481          * The APIC feature bit should now be enabled
1482          * in `cpuid'
1483          */
1484         features = cpuid_edx(1);
1485         if (!(features & (1 << X86_FEATURE_APIC))) {
1486                 pr_warning("Could not enable APIC!\n");
1487                 return -1;
1488         }
1489         set_cpu_cap(&boot_cpu_data, X86_FEATURE_APIC);
1490         mp_lapic_addr = APIC_DEFAULT_PHYS_BASE;
1491
1492         /* The BIOS may have set up the APIC at some other address */
1493         rdmsr(MSR_IA32_APICBASE, l, h);
1494         if (l & MSR_IA32_APICBASE_ENABLE)
1495                 mp_lapic_addr = l & MSR_IA32_APICBASE_BASE;
1496
1497         pr_info("Found and enabled local APIC!\n");
1498
1499         apic_pm_activate();
1500
1501         return 0;
1502
1503 no_apic:
1504         pr_info("No local APIC present or hardware disabled\n");
1505         return -1;
1506 }
1507 #endif
1508
1509 #ifdef CONFIG_X86_64
1510 void __init early_init_lapic_mapping(void)
1511 {
1512         unsigned long phys_addr;
1513
1514         /*
1515          * If no local APIC can be found then go out
1516          * : it means there is no mpatable and MADT
1517          */
1518         if (!smp_found_config)
1519                 return;
1520
1521         phys_addr = mp_lapic_addr;
1522
1523         set_fixmap_nocache(FIX_APIC_BASE, phys_addr);
1524         apic_printk(APIC_VERBOSE, "mapped APIC to %16lx (%16lx)\n",
1525                     APIC_BASE, phys_addr);
1526
1527         /*
1528          * Fetch the APIC ID of the BSP in case we have a
1529          * default configuration (or the MP table is broken).
1530          */
1531         boot_cpu_physical_apicid = read_apic_id();
1532 }
1533 #endif
1534
1535 /**
1536  * init_apic_mappings - initialize APIC mappings
1537  */
1538 void __init init_apic_mappings(void)
1539 {
1540         if (x2apic) {
1541                 boot_cpu_physical_apicid = read_apic_id();
1542                 return;
1543         }
1544
1545         /*
1546          * If no local APIC can be found then set up a fake all
1547          * zeroes page to simulate the local APIC and another
1548          * one for the IO-APIC.
1549          */
1550         if (!smp_found_config && detect_init_APIC()) {
1551                 apic_phys = (unsigned long) alloc_bootmem_pages(PAGE_SIZE);
1552                 apic_phys = __pa(apic_phys);
1553         } else
1554                 apic_phys = mp_lapic_addr;
1555
1556         set_fixmap_nocache(FIX_APIC_BASE, apic_phys);
1557         apic_printk(APIC_VERBOSE, "mapped APIC to %08lx (%08lx)\n",
1558                                 APIC_BASE, apic_phys);
1559
1560         /*
1561          * Fetch the APIC ID of the BSP in case we have a
1562          * default configuration (or the MP table is broken).
1563          */
1564         if (boot_cpu_physical_apicid == -1U)
1565                 boot_cpu_physical_apicid = read_apic_id();
1566 }
1567
1568 /*
1569  * This initializes the IO-APIC and APIC hardware if this is
1570  * a UP kernel.
1571  */
1572 int apic_version[MAX_APICS];
1573
1574 int __init APIC_init_uniprocessor(void)
1575 {
1576         if (disable_apic) {
1577                 pr_info("Apic disabled\n");
1578                 return -1;
1579         }
1580 #ifdef CONFIG_X86_64
1581         if (!cpu_has_apic) {
1582                 disable_apic = 1;
1583                 pr_info("Apic disabled by BIOS\n");
1584                 return -1;
1585         }
1586 #else
1587         if (!smp_found_config && !cpu_has_apic)
1588                 return -1;
1589
1590         /*
1591          * Complain if the BIOS pretends there is one.
1592          */
1593         if (!cpu_has_apic &&
1594             APIC_INTEGRATED(apic_version[boot_cpu_physical_apicid])) {
1595                 pr_err("BIOS bug, local APIC 0x%x not detected!...\n",
1596                         boot_cpu_physical_apicid);
1597                 clear_cpu_cap(&boot_cpu_data, X86_FEATURE_APIC);
1598                 return -1;
1599         }
1600 #endif
1601
1602         enable_IR_x2apic();
1603 #ifdef CONFIG_X86_64
1604         default_setup_apic_routing();
1605 #endif
1606
1607         verify_local_APIC();
1608         connect_bsp_APIC();
1609
1610 #ifdef CONFIG_X86_64
1611         apic_write(APIC_ID, SET_APIC_ID(boot_cpu_physical_apicid));
1612 #else
1613         /*
1614          * Hack: In case of kdump, after a crash, kernel might be booting
1615          * on a cpu with non-zero lapic id. But boot_cpu_physical_apicid
1616          * might be zero if read from MP tables. Get it from LAPIC.
1617          */
1618 # ifdef CONFIG_CRASH_DUMP
1619         boot_cpu_physical_apicid = read_apic_id();
1620 # endif
1621 #endif
1622         physid_set_mask_of_physid(boot_cpu_physical_apicid, &phys_cpu_present_map);
1623         setup_local_APIC();
1624
1625 #ifdef CONFIG_X86_IO_APIC
1626         /*
1627          * Now enable IO-APICs, actually call clear_IO_APIC
1628          * We need clear_IO_APIC before enabling error vector
1629          */
1630         if (!skip_ioapic_setup && nr_ioapics)
1631                 enable_IO_APIC();
1632 #endif
1633
1634         end_local_APIC_setup();
1635
1636 #ifdef CONFIG_X86_IO_APIC
1637         if (smp_found_config && !skip_ioapic_setup && nr_ioapics)
1638                 setup_IO_APIC();
1639         else {
1640                 nr_ioapics = 0;
1641                 localise_nmi_watchdog();
1642         }
1643 #else
1644         localise_nmi_watchdog();
1645 #endif
1646
1647         setup_boot_clock();
1648 #ifdef CONFIG_X86_64
1649         check_nmi_watchdog();
1650 #endif
1651
1652         return 0;
1653 }
1654
1655 /*
1656  * Local APIC interrupts
1657  */
1658
1659 /*
1660  * This interrupt should _never_ happen with our APIC/SMP architecture
1661  */
1662 void smp_spurious_interrupt(struct pt_regs *regs)
1663 {
1664         u32 v;
1665
1666         exit_idle();
1667         irq_enter();
1668         /*
1669          * Check if this really is a spurious interrupt and ACK it
1670          * if it is a vectored one.  Just in case...
1671          * Spurious interrupts should not be ACKed.
1672          */
1673         v = apic_read(APIC_ISR + ((SPURIOUS_APIC_VECTOR & ~0x1f) >> 1));
1674         if (v & (1 << (SPURIOUS_APIC_VECTOR & 0x1f)))
1675                 ack_APIC_irq();
1676
1677         inc_irq_stat(irq_spurious_count);
1678
1679         /* see sw-dev-man vol 3, chapter 7.4.13.5 */
1680         pr_info("spurious APIC interrupt on CPU#%d, "
1681                 "should never happen.\n", smp_processor_id());
1682         irq_exit();
1683 }
1684
1685 /*
1686  * This interrupt should never happen with our APIC/SMP architecture
1687  */
1688 void smp_error_interrupt(struct pt_regs *regs)
1689 {
1690         u32 v, v1;
1691
1692         exit_idle();
1693         irq_enter();
1694         /* First tickle the hardware, only then report what went on. -- REW */
1695         v = apic_read(APIC_ESR);
1696         apic_write(APIC_ESR, 0);
1697         v1 = apic_read(APIC_ESR);
1698         ack_APIC_irq();
1699         atomic_inc(&irq_err_count);
1700
1701         /*
1702          * Here is what the APIC error bits mean:
1703          * 0: Send CS error
1704          * 1: Receive CS error
1705          * 2: Send accept error
1706          * 3: Receive accept error
1707          * 4: Reserved
1708          * 5: Send illegal vector
1709          * 6: Received illegal vector
1710          * 7: Illegal register address
1711          */
1712         pr_debug("APIC error on CPU%d: %02x(%02x)\n",
1713                 smp_processor_id(), v , v1);
1714         irq_exit();
1715 }
1716
1717 /**
1718  * connect_bsp_APIC - attach the APIC to the interrupt system
1719  */
1720 void __init connect_bsp_APIC(void)
1721 {
1722 #ifdef CONFIG_X86_32
1723         if (pic_mode) {
1724                 /*
1725                  * Do not trust the local APIC being empty at bootup.
1726                  */
1727                 clear_local_APIC();
1728                 /*
1729                  * PIC mode, enable APIC mode in the IMCR, i.e.  connect BSP's
1730                  * local APIC to INT and NMI lines.
1731                  */
1732                 apic_printk(APIC_VERBOSE, "leaving PIC mode, "
1733                                 "enabling APIC mode.\n");
1734                 outb(0x70, 0x22);
1735                 outb(0x01, 0x23);
1736         }
1737 #endif
1738         if (apic->enable_apic_mode)
1739                 apic->enable_apic_mode();
1740 }
1741
1742 /**
1743  * disconnect_bsp_APIC - detach the APIC from the interrupt system
1744  * @virt_wire_setup:    indicates, whether virtual wire mode is selected
1745  *
1746  * Virtual wire mode is necessary to deliver legacy interrupts even when the
1747  * APIC is disabled.
1748  */
1749 void disconnect_bsp_APIC(int virt_wire_setup)
1750 {
1751         unsigned int value;
1752
1753 #ifdef CONFIG_X86_32
1754         if (pic_mode) {
1755                 /*
1756                  * Put the board back into PIC mode (has an effect only on
1757                  * certain older boards).  Note that APIC interrupts, including
1758                  * IPIs, won't work beyond this point!  The only exception are
1759                  * INIT IPIs.
1760                  */
1761                 apic_printk(APIC_VERBOSE, "disabling APIC mode, "
1762                                 "entering PIC mode.\n");
1763                 outb(0x70, 0x22);
1764                 outb(0x00, 0x23);
1765                 return;
1766         }
1767 #endif
1768
1769         /* Go back to Virtual Wire compatibility mode */
1770
1771         /* For the spurious interrupt use vector F, and enable it */
1772         value = apic_read(APIC_SPIV);
1773         value &= ~APIC_VECTOR_MASK;
1774         value |= APIC_SPIV_APIC_ENABLED;
1775         value |= 0xf;
1776         apic_write(APIC_SPIV, value);
1777
1778         if (!virt_wire_setup) {
1779                 /*
1780                  * For LVT0 make it edge triggered, active high,
1781                  * external and enabled
1782                  */
1783                 value = apic_read(APIC_LVT0);
1784                 value &= ~(APIC_MODE_MASK | APIC_SEND_PENDING |
1785                         APIC_INPUT_POLARITY | APIC_LVT_REMOTE_IRR |
1786                         APIC_LVT_LEVEL_TRIGGER | APIC_LVT_MASKED);
1787                 value |= APIC_LVT_REMOTE_IRR | APIC_SEND_PENDING;
1788                 value = SET_APIC_DELIVERY_MODE(value, APIC_MODE_EXTINT);
1789                 apic_write(APIC_LVT0, value);
1790         } else {
1791                 /* Disable LVT0 */
1792                 apic_write(APIC_LVT0, APIC_LVT_MASKED);
1793         }
1794
1795         /*
1796          * For LVT1 make it edge triggered, active high,
1797          * nmi and enabled
1798          */
1799         value = apic_read(APIC_LVT1);
1800         value &= ~(APIC_MODE_MASK | APIC_SEND_PENDING |
1801                         APIC_INPUT_POLARITY | APIC_LVT_REMOTE_IRR |
1802                         APIC_LVT_LEVEL_TRIGGER | APIC_LVT_MASKED);
1803         value |= APIC_LVT_REMOTE_IRR | APIC_SEND_PENDING;
1804         value = SET_APIC_DELIVERY_MODE(value, APIC_MODE_NMI);
1805         apic_write(APIC_LVT1, value);
1806 }
1807
1808 void __cpuinit generic_processor_info(int apicid, int version)
1809 {
1810         int cpu;
1811
1812         /*
1813          * Validate version
1814          */
1815         if (version == 0x0) {
1816                 pr_warning("BIOS bug, APIC version is 0 for CPU#%d! "
1817                            "fixing up to 0x10. (tell your hw vendor)\n",
1818                                 version);
1819                 version = 0x10;
1820         }
1821         apic_version[apicid] = version;
1822
1823         if (num_processors >= nr_cpu_ids) {
1824                 int max = nr_cpu_ids;
1825                 int thiscpu = max + disabled_cpus;
1826
1827                 pr_warning(
1828                         "ACPI: NR_CPUS/possible_cpus limit of %i reached."
1829                         "  Processor %d/0x%x ignored.\n", max, thiscpu, apicid);
1830
1831                 disabled_cpus++;
1832                 return;
1833         }
1834
1835         num_processors++;
1836         cpu = cpumask_next_zero(-1, cpu_present_mask);
1837
1838         if (version != apic_version[boot_cpu_physical_apicid])
1839                 WARN_ONCE(1,
1840                         "ACPI: apic version mismatch, bootcpu: %x cpu %d: %x\n",
1841                         apic_version[boot_cpu_physical_apicid], cpu, version);
1842
1843         physid_set(apicid, phys_cpu_present_map);
1844         if (apicid == boot_cpu_physical_apicid) {
1845                 /*
1846                  * x86_bios_cpu_apicid is required to have processors listed
1847                  * in same order as logical cpu numbers. Hence the first
1848                  * entry is BSP, and so on.
1849                  */
1850                 cpu = 0;
1851         }
1852         if (apicid > max_physical_apicid)
1853                 max_physical_apicid = apicid;
1854
1855 #ifdef CONFIG_X86_32
1856         /*
1857          * Would be preferable to switch to bigsmp when CONFIG_HOTPLUG_CPU=y
1858          * but we need to work other dependencies like SMP_SUSPEND etc
1859          * before this can be done without some confusion.
1860          * if (CPU_HOTPLUG_ENABLED || num_processors > 8)
1861          *       - Ashok Raj <ashok.raj@intel.com>
1862          */
1863         if (max_physical_apicid >= 8) {
1864                 switch (boot_cpu_data.x86_vendor) {
1865                 case X86_VENDOR_INTEL:
1866                         if (!APIC_XAPIC(version)) {
1867                                 def_to_bigsmp = 0;
1868                                 break;
1869                         }
1870                         /* If P4 and above fall through */
1871                 case X86_VENDOR_AMD:
1872                         def_to_bigsmp = 1;
1873                 }
1874         }
1875 #endif
1876
1877 #if defined(CONFIG_SMP) || defined(CONFIG_X86_64)
1878         early_per_cpu(x86_cpu_to_apicid, cpu) = apicid;
1879         early_per_cpu(x86_bios_cpu_apicid, cpu) = apicid;
1880 #endif
1881
1882         set_cpu_possible(cpu, true);
1883         set_cpu_present(cpu, true);
1884 }
1885
1886 int hard_smp_processor_id(void)
1887 {
1888         return read_apic_id();
1889 }
1890
1891 void default_init_apic_ldr(void)
1892 {
1893         unsigned long val;
1894
1895         apic_write(APIC_DFR, APIC_DFR_VALUE);
1896         val = apic_read(APIC_LDR) & ~APIC_LDR_MASK;
1897         val |= SET_APIC_LOGICAL_ID(1UL << smp_processor_id());
1898         apic_write(APIC_LDR, val);
1899 }
1900
1901 #ifdef CONFIG_X86_32
1902 int default_apicid_to_node(int logical_apicid)
1903 {
1904 #ifdef CONFIG_SMP
1905         return apicid_2_node[hard_smp_processor_id()];
1906 #else
1907         return 0;
1908 #endif
1909 }
1910 #endif
1911
1912 /*
1913  * Power management
1914  */
1915 #ifdef CONFIG_PM
1916
1917 static struct {
1918         /*
1919          * 'active' is true if the local APIC was enabled by us and
1920          * not the BIOS; this signifies that we are also responsible
1921          * for disabling it before entering apm/acpi suspend
1922          */
1923         int active;
1924         /* r/w apic fields */
1925         unsigned int apic_id;
1926         unsigned int apic_taskpri;
1927         unsigned int apic_ldr;
1928         unsigned int apic_dfr;
1929         unsigned int apic_spiv;
1930         unsigned int apic_lvtt;
1931         unsigned int apic_lvtpc;
1932         unsigned int apic_lvt0;
1933         unsigned int apic_lvt1;
1934         unsigned int apic_lvterr;
1935         unsigned int apic_tmict;
1936         unsigned int apic_tdcr;
1937         unsigned int apic_thmr;
1938 } apic_pm_state;
1939
1940 static int lapic_suspend(struct sys_device *dev, pm_message_t state)
1941 {
1942         unsigned long flags;
1943         int maxlvt;
1944
1945         if (!apic_pm_state.active)
1946                 return 0;
1947
1948         maxlvt = lapic_get_maxlvt();
1949
1950         apic_pm_state.apic_id = apic_read(APIC_ID);
1951         apic_pm_state.apic_taskpri = apic_read(APIC_TASKPRI);
1952         apic_pm_state.apic_ldr = apic_read(APIC_LDR);
1953         apic_pm_state.apic_dfr = apic_read(APIC_DFR);
1954         apic_pm_state.apic_spiv = apic_read(APIC_SPIV);
1955         apic_pm_state.apic_lvtt = apic_read(APIC_LVTT);
1956         if (maxlvt >= 4)
1957                 apic_pm_state.apic_lvtpc = apic_read(APIC_LVTPC);
1958         apic_pm_state.apic_lvt0 = apic_read(APIC_LVT0);
1959         apic_pm_state.apic_lvt1 = apic_read(APIC_LVT1);
1960         apic_pm_state.apic_lvterr = apic_read(APIC_LVTERR);
1961         apic_pm_state.apic_tmict = apic_read(APIC_TMICT);
1962         apic_pm_state.apic_tdcr = apic_read(APIC_TDCR);
1963 #if defined(CONFIG_X86_MCE_P4THERMAL) || defined(CONFIG_X86_MCE_INTEL)
1964         if (maxlvt >= 5)
1965                 apic_pm_state.apic_thmr = apic_read(APIC_LVTTHMR);
1966 #endif
1967
1968         local_irq_save(flags);
1969         disable_local_APIC();
1970 #ifdef CONFIG_INTR_REMAP
1971         if (intr_remapping_enabled)
1972                 disable_intr_remapping();
1973 #endif
1974         local_irq_restore(flags);
1975         return 0;
1976 }
1977
1978 static int lapic_resume(struct sys_device *dev)
1979 {
1980         unsigned int l, h;
1981         unsigned long flags;
1982         int maxlvt;
1983
1984 #ifdef CONFIG_INTR_REMAP
1985         int ret;
1986         struct IO_APIC_route_entry **ioapic_entries = NULL;
1987
1988         if (!apic_pm_state.active)
1989                 return 0;
1990
1991         local_irq_save(flags);
1992         if (x2apic) {
1993                 ioapic_entries = alloc_ioapic_entries();
1994                 if (!ioapic_entries) {
1995                         WARN(1, "Alloc ioapic_entries in lapic resume failed.");
1996                         return -ENOMEM;
1997                 }
1998
1999                 ret = save_IO_APIC_setup(ioapic_entries);
2000                 if (ret) {
2001                         WARN(1, "Saving IO-APIC state failed: %d\n", ret);
2002                         free_ioapic_entries(ioapic_entries);
2003                         return ret;
2004                 }
2005
2006                 mask_IO_APIC_setup(ioapic_entries);
2007                 mask_8259A();
2008                 enable_x2apic();
2009         }
2010 #else
2011         if (!apic_pm_state.active)
2012                 return 0;
2013
2014         local_irq_save(flags);
2015         if (x2apic)
2016                 enable_x2apic();
2017 #endif
2018
2019         else {
2020                 /*
2021                  * Make sure the APICBASE points to the right address
2022                  *
2023                  * FIXME! This will be wrong if we ever support suspend on
2024                  * SMP! We'll need to do this as part of the CPU restore!
2025                  */
2026                 rdmsr(MSR_IA32_APICBASE, l, h);
2027                 l &= ~MSR_IA32_APICBASE_BASE;
2028                 l |= MSR_IA32_APICBASE_ENABLE | mp_lapic_addr;
2029                 wrmsr(MSR_IA32_APICBASE, l, h);
2030         }
2031
2032         maxlvt = lapic_get_maxlvt();
2033         apic_write(APIC_LVTERR, ERROR_APIC_VECTOR | APIC_LVT_MASKED);
2034         apic_write(APIC_ID, apic_pm_state.apic_id);
2035         apic_write(APIC_DFR, apic_pm_state.apic_dfr);
2036         apic_write(APIC_LDR, apic_pm_state.apic_ldr);
2037         apic_write(APIC_TASKPRI, apic_pm_state.apic_taskpri);
2038         apic_write(APIC_SPIV, apic_pm_state.apic_spiv);
2039         apic_write(APIC_LVT0, apic_pm_state.apic_lvt0);
2040         apic_write(APIC_LVT1, apic_pm_state.apic_lvt1);
2041 #if defined(CONFIG_X86_MCE_P4THERMAL) || defined(CONFIG_X86_MCE_INTEL)
2042         if (maxlvt >= 5)
2043                 apic_write(APIC_LVTTHMR, apic_pm_state.apic_thmr);
2044 #endif
2045         if (maxlvt >= 4)
2046                 apic_write(APIC_LVTPC, apic_pm_state.apic_lvtpc);
2047         apic_write(APIC_LVTT, apic_pm_state.apic_lvtt);
2048         apic_write(APIC_TDCR, apic_pm_state.apic_tdcr);
2049         apic_write(APIC_TMICT, apic_pm_state.apic_tmict);
2050         apic_write(APIC_ESR, 0);
2051         apic_read(APIC_ESR);
2052         apic_write(APIC_LVTERR, apic_pm_state.apic_lvterr);
2053         apic_write(APIC_ESR, 0);
2054         apic_read(APIC_ESR);
2055
2056 #ifdef CONFIG_INTR_REMAP
2057         if (intr_remapping_enabled)
2058                 reenable_intr_remapping(EIM_32BIT_APIC_ID);
2059
2060         if (x2apic) {
2061                 unmask_8259A();
2062                 restore_IO_APIC_setup(ioapic_entries);
2063                 free_ioapic_entries(ioapic_entries);
2064         }
2065 #endif
2066
2067         local_irq_restore(flags);
2068
2069
2070         return 0;
2071 }
2072
2073 /*
2074  * This device has no shutdown method - fully functioning local APICs
2075  * are needed on every CPU up until machine_halt/restart/poweroff.
2076  */
2077
2078 static struct sysdev_class lapic_sysclass = {
2079         .name           = "lapic",
2080         .resume         = lapic_resume,
2081         .suspend        = lapic_suspend,
2082 };
2083
2084 static struct sys_device device_lapic = {
2085         .id     = 0,
2086         .cls    = &lapic_sysclass,
2087 };
2088
2089 static void __cpuinit apic_pm_activate(void)
2090 {
2091         apic_pm_state.active = 1;
2092 }
2093
2094 static int __init init_lapic_sysfs(void)
2095 {
2096         int error;
2097
2098         if (!cpu_has_apic)
2099                 return 0;
2100         /* XXX: remove suspend/resume procs if !apic_pm_state.active? */
2101
2102         error = sysdev_class_register(&lapic_sysclass);
2103         if (!error)
2104                 error = sysdev_register(&device_lapic);
2105         return error;
2106 }
2107
2108 /* local apic needs to resume before other devices access its registers. */
2109 core_initcall(init_lapic_sysfs);
2110
2111 #else   /* CONFIG_PM */
2112
2113 static void apic_pm_activate(void) { }
2114
2115 #endif  /* CONFIG_PM */
2116
2117 #ifdef CONFIG_X86_64
2118 /*
2119  * apic_is_clustered_box() -- Check if we can expect good TSC
2120  *
2121  * Thus far, the major user of this is IBM's Summit2 series:
2122  *
2123  * Clustered boxes may have unsynced TSC problems if they are
2124  * multi-chassis. Use available data to take a good guess.
2125  * If in doubt, go HPET.
2126  */
2127 __cpuinit int apic_is_clustered_box(void)
2128 {
2129         int i, clusters, zeros;
2130         unsigned id;
2131         u16 *bios_cpu_apicid;
2132         DECLARE_BITMAP(clustermap, NUM_APIC_CLUSTERS);
2133
2134         /*
2135          * there is not this kind of box with AMD CPU yet.
2136          * Some AMD box with quadcore cpu and 8 sockets apicid
2137          * will be [4, 0x23] or [8, 0x27] could be thought to
2138          * vsmp box still need checking...
2139          */
2140         if ((boot_cpu_data.x86_vendor == X86_VENDOR_AMD) && !is_vsmp_box())
2141                 return 0;
2142
2143         bios_cpu_apicid = early_per_cpu_ptr(x86_bios_cpu_apicid);
2144         bitmap_zero(clustermap, NUM_APIC_CLUSTERS);
2145
2146         for (i = 0; i < nr_cpu_ids; i++) {
2147                 /* are we being called early in kernel startup? */
2148                 if (bios_cpu_apicid) {
2149                         id = bios_cpu_apicid[i];
2150                 } else if (i < nr_cpu_ids) {
2151                         if (cpu_present(i))
2152                                 id = per_cpu(x86_bios_cpu_apicid, i);
2153                         else
2154                                 continue;
2155                 } else
2156                         break;
2157
2158                 if (id != BAD_APICID)
2159                         __set_bit(APIC_CLUSTERID(id), clustermap);
2160         }
2161
2162         /* Problem:  Partially populated chassis may not have CPUs in some of
2163          * the APIC clusters they have been allocated.  Only present CPUs have
2164          * x86_bios_cpu_apicid entries, thus causing zeroes in the bitmap.
2165          * Since clusters are allocated sequentially, count zeros only if
2166          * they are bounded by ones.
2167          */
2168         clusters = 0;
2169         zeros = 0;
2170         for (i = 0; i < NUM_APIC_CLUSTERS; i++) {
2171                 if (test_bit(i, clustermap)) {
2172                         clusters += 1 + zeros;
2173                         zeros = 0;
2174                 } else
2175                         ++zeros;
2176         }
2177
2178         /* ScaleMP vSMPowered boxes have one cluster per board and TSCs are
2179          * not guaranteed to be synced between boards
2180          */
2181         if (is_vsmp_box() && clusters > 1)
2182                 return 1;
2183
2184         /*
2185          * If clusters > 2, then should be multi-chassis.
2186          * May have to revisit this when multi-core + hyperthreaded CPUs come
2187          * out, but AFAIK this will work even for them.
2188          */
2189         return (clusters > 2);
2190 }
2191 #endif
2192
2193 /*
2194  * APIC command line parameters
2195  */
2196 static int __init setup_disableapic(char *arg)
2197 {
2198         disable_apic = 1;
2199         setup_clear_cpu_cap(X86_FEATURE_APIC);
2200         return 0;
2201 }
2202 early_param("disableapic", setup_disableapic);
2203
2204 /* same as disableapic, for compatibility */
2205 static int __init setup_nolapic(char *arg)
2206 {
2207         return setup_disableapic(arg);
2208 }
2209 early_param("nolapic", setup_nolapic);
2210
2211 static int __init parse_lapic_timer_c2_ok(char *arg)
2212 {
2213         local_apic_timer_c2_ok = 1;
2214         return 0;
2215 }
2216 early_param("lapic_timer_c2_ok", parse_lapic_timer_c2_ok);
2217
2218 static int __init parse_disable_apic_timer(char *arg)
2219 {
2220         disable_apic_timer = 1;
2221         return 0;
2222 }
2223 early_param("noapictimer", parse_disable_apic_timer);
2224
2225 static int __init parse_nolapic_timer(char *arg)
2226 {
2227         disable_apic_timer = 1;
2228         return 0;
2229 }
2230 early_param("nolapic_timer", parse_nolapic_timer);
2231
2232 static int __init apic_set_verbosity(char *arg)
2233 {
2234         if (!arg)  {
2235 #ifdef CONFIG_X86_64
2236                 skip_ioapic_setup = 0;
2237                 return 0;
2238 #endif
2239                 return -EINVAL;
2240         }
2241
2242         if (strcmp("debug", arg) == 0)
2243                 apic_verbosity = APIC_DEBUG;
2244         else if (strcmp("verbose", arg) == 0)
2245                 apic_verbosity = APIC_VERBOSE;
2246         else {
2247                 pr_warning("APIC Verbosity level %s not recognised"
2248                         " use apic=verbose or apic=debug\n", arg);
2249                 return -EINVAL;
2250         }
2251
2252         return 0;
2253 }
2254 early_param("apic", apic_set_verbosity);
2255
2256 static int __init lapic_insert_resource(void)
2257 {
2258         if (!apic_phys)
2259                 return -1;
2260
2261         /* Put local APIC into the resource map. */
2262         lapic_resource.start = apic_phys;
2263         lapic_resource.end = lapic_resource.start + PAGE_SIZE - 1;
2264         insert_resource(&iomem_resource, &lapic_resource);
2265
2266         return 0;
2267 }
2268
2269 /*
2270  * need call insert after e820_reserve_resources()
2271  * that is using request_resource
2272  */
2273 late_initcall(lapic_insert_resource);