Pull cpuidle into release branch
[linux-2.6] / arch / x86 / kernel / traps_32.c
1 /*
2  *  Copyright (C) 1991, 1992  Linus Torvalds
3  *
4  *  Pentium III FXSR, SSE support
5  *      Gareth Hughes <gareth@valinux.com>, May 2000
6  */
7
8 /*
9  * 'Traps.c' handles hardware traps and faults after we have saved some
10  * state in 'asm.s'.
11  */
12 #include <linux/sched.h>
13 #include <linux/kernel.h>
14 #include <linux/string.h>
15 #include <linux/errno.h>
16 #include <linux/timer.h>
17 #include <linux/mm.h>
18 #include <linux/init.h>
19 #include <linux/delay.h>
20 #include <linux/spinlock.h>
21 #include <linux/interrupt.h>
22 #include <linux/highmem.h>
23 #include <linux/kallsyms.h>
24 #include <linux/ptrace.h>
25 #include <linux/utsname.h>
26 #include <linux/kprobes.h>
27 #include <linux/kexec.h>
28 #include <linux/unwind.h>
29 #include <linux/uaccess.h>
30 #include <linux/nmi.h>
31 #include <linux/bug.h>
32
33 #ifdef CONFIG_EISA
34 #include <linux/ioport.h>
35 #include <linux/eisa.h>
36 #endif
37
38 #ifdef CONFIG_MCA
39 #include <linux/mca.h>
40 #endif
41
42 #if defined(CONFIG_EDAC)
43 #include <linux/edac.h>
44 #endif
45
46 #include <asm/processor.h>
47 #include <asm/system.h>
48 #include <asm/io.h>
49 #include <asm/atomic.h>
50 #include <asm/debugreg.h>
51 #include <asm/desc.h>
52 #include <asm/i387.h>
53 #include <asm/nmi.h>
54 #include <asm/unwind.h>
55 #include <asm/smp.h>
56 #include <asm/arch_hooks.h>
57 #include <linux/kdebug.h>
58 #include <asm/stacktrace.h>
59
60 #include <linux/module.h>
61
62 #include "mach_traps.h"
63
64 int panic_on_unrecovered_nmi;
65
66 DECLARE_BITMAP(used_vectors, NR_VECTORS);
67 EXPORT_SYMBOL_GPL(used_vectors);
68
69 asmlinkage int system_call(void);
70
71 /* Do we ignore FPU interrupts ? */
72 char ignore_fpu_irq = 0;
73
74 /*
75  * The IDT has to be page-aligned to simplify the Pentium
76  * F0 0F bug workaround.. We have a special link segment
77  * for this.
78  */
79 struct desc_struct idt_table[256] __attribute__((__section__(".data.idt"))) = { {0, 0}, };
80
81 asmlinkage void divide_error(void);
82 asmlinkage void debug(void);
83 asmlinkage void nmi(void);
84 asmlinkage void int3(void);
85 asmlinkage void overflow(void);
86 asmlinkage void bounds(void);
87 asmlinkage void invalid_op(void);
88 asmlinkage void device_not_available(void);
89 asmlinkage void coprocessor_segment_overrun(void);
90 asmlinkage void invalid_TSS(void);
91 asmlinkage void segment_not_present(void);
92 asmlinkage void stack_segment(void);
93 asmlinkage void general_protection(void);
94 asmlinkage void page_fault(void);
95 asmlinkage void coprocessor_error(void);
96 asmlinkage void simd_coprocessor_error(void);
97 asmlinkage void alignment_check(void);
98 asmlinkage void spurious_interrupt_bug(void);
99 asmlinkage void machine_check(void);
100
101 int kstack_depth_to_print = 24;
102 static unsigned int code_bytes = 64;
103
104 static inline int valid_stack_ptr(struct thread_info *tinfo, void *p, unsigned size)
105 {
106         return  p > (void *)tinfo &&
107                 p <= (void *)tinfo + THREAD_SIZE - size;
108 }
109
110 /* The form of the top of the frame on the stack */
111 struct stack_frame {
112         struct stack_frame *next_frame;
113         unsigned long return_address;
114 };
115
116 static inline unsigned long print_context_stack(struct thread_info *tinfo,
117                                 unsigned long *stack, unsigned long ebp,
118                                 const struct stacktrace_ops *ops, void *data)
119 {
120 #ifdef  CONFIG_FRAME_POINTER
121         struct stack_frame *frame = (struct stack_frame *)ebp;
122         while (valid_stack_ptr(tinfo, frame, sizeof(*frame))) {
123                 struct stack_frame *next;
124                 unsigned long addr;
125
126                 addr = frame->return_address;
127                 ops->address(data, addr);
128                 /*
129                  * break out of recursive entries (such as
130                  * end_of_stack_stop_unwind_function). Also,
131                  * we can never allow a frame pointer to
132                  * move downwards!
133                  */
134                 next = frame->next_frame;
135                 if (next <= frame)
136                         break;
137                 frame = next;
138         }
139 #else
140         while (valid_stack_ptr(tinfo, stack, sizeof(*stack))) {
141                 unsigned long addr;
142
143                 addr = *stack++;
144                 if (__kernel_text_address(addr))
145                         ops->address(data, addr);
146         }
147 #endif
148         return ebp;
149 }
150
151 #define MSG(msg) ops->warning(data, msg)
152
153 void dump_trace(struct task_struct *task, struct pt_regs *regs,
154                 unsigned long *stack,
155                 const struct stacktrace_ops *ops, void *data)
156 {
157         unsigned long ebp = 0;
158
159         if (!task)
160                 task = current;
161
162         if (!stack) {
163                 unsigned long dummy;
164                 stack = &dummy;
165                 if (task != current)
166                         stack = (unsigned long *)task->thread.esp;
167         }
168
169 #ifdef CONFIG_FRAME_POINTER
170         if (!ebp) {
171                 if (task == current) {
172                         /* Grab ebp right from our regs */
173                         asm ("movl %%ebp, %0" : "=r" (ebp) : );
174                 } else {
175                         /* ebp is the last reg pushed by switch_to */
176                         ebp = *(unsigned long *) task->thread.esp;
177                 }
178         }
179 #endif
180
181         while (1) {
182                 struct thread_info *context;
183                 context = (struct thread_info *)
184                         ((unsigned long)stack & (~(THREAD_SIZE - 1)));
185                 ebp = print_context_stack(context, stack, ebp, ops, data);
186                 /* Should be after the line below, but somewhere
187                    in early boot context comes out corrupted and we
188                    can't reference it -AK */
189                 if (ops->stack(data, "IRQ") < 0)
190                         break;
191                 stack = (unsigned long*)context->previous_esp;
192                 if (!stack)
193                         break;
194                 touch_nmi_watchdog();
195         }
196 }
197 EXPORT_SYMBOL(dump_trace);
198
199 static void
200 print_trace_warning_symbol(void *data, char *msg, unsigned long symbol)
201 {
202         printk(data);
203         print_symbol(msg, symbol);
204         printk("\n");
205 }
206
207 static void print_trace_warning(void *data, char *msg)
208 {
209         printk("%s%s\n", (char *)data, msg);
210 }
211
212 static int print_trace_stack(void *data, char *name)
213 {
214         return 0;
215 }
216
217 /*
218  * Print one address/symbol entries per line.
219  */
220 static void print_trace_address(void *data, unsigned long addr)
221 {
222         printk("%s [<%08lx>] ", (char *)data, addr);
223         print_symbol("%s\n", addr);
224         touch_nmi_watchdog();
225 }
226
227 static const struct stacktrace_ops print_trace_ops = {
228         .warning = print_trace_warning,
229         .warning_symbol = print_trace_warning_symbol,
230         .stack = print_trace_stack,
231         .address = print_trace_address,
232 };
233
234 static void
235 show_trace_log_lvl(struct task_struct *task, struct pt_regs *regs,
236                    unsigned long * stack, char *log_lvl)
237 {
238         dump_trace(task, regs, stack, &print_trace_ops, log_lvl);
239         printk("%s =======================\n", log_lvl);
240 }
241
242 void show_trace(struct task_struct *task, struct pt_regs *regs,
243                 unsigned long * stack)
244 {
245         show_trace_log_lvl(task, regs, stack, "");
246 }
247
248 static void show_stack_log_lvl(struct task_struct *task, struct pt_regs *regs,
249                                unsigned long *esp, char *log_lvl)
250 {
251         unsigned long *stack;
252         int i;
253
254         if (esp == NULL) {
255                 if (task)
256                         esp = (unsigned long*)task->thread.esp;
257                 else
258                         esp = (unsigned long *)&esp;
259         }
260
261         stack = esp;
262         for(i = 0; i < kstack_depth_to_print; i++) {
263                 if (kstack_end(stack))
264                         break;
265                 if (i && ((i % 8) == 0))
266                         printk("\n%s       ", log_lvl);
267                 printk("%08lx ", *stack++);
268         }
269         printk("\n%sCall Trace:\n", log_lvl);
270         show_trace_log_lvl(task, regs, esp, log_lvl);
271 }
272
273 void show_stack(struct task_struct *task, unsigned long *esp)
274 {
275         printk("       ");
276         show_stack_log_lvl(task, NULL, esp, "");
277 }
278
279 /*
280  * The architecture-independent dump_stack generator
281  */
282 void dump_stack(void)
283 {
284         unsigned long stack;
285
286         show_trace(current, NULL, &stack);
287 }
288
289 EXPORT_SYMBOL(dump_stack);
290
291 void show_registers(struct pt_regs *regs)
292 {
293         int i;
294
295         print_modules();
296         __show_registers(regs, 0);
297         printk(KERN_EMERG "Process %.*s (pid: %d, ti=%p task=%p task.ti=%p)",
298                 TASK_COMM_LEN, current->comm, task_pid_nr(current),
299                 current_thread_info(), current, task_thread_info(current));
300         /*
301          * When in-kernel, we also print out the stack and code at the
302          * time of the fault..
303          */
304         if (!user_mode_vm(regs)) {
305                 u8 *eip;
306                 unsigned int code_prologue = code_bytes * 43 / 64;
307                 unsigned int code_len = code_bytes;
308                 unsigned char c;
309
310                 printk("\n" KERN_EMERG "Stack: ");
311                 show_stack_log_lvl(NULL, regs, &regs->esp, KERN_EMERG);
312
313                 printk(KERN_EMERG "Code: ");
314
315                 eip = (u8 *)regs->eip - code_prologue;
316                 if (eip < (u8 *)PAGE_OFFSET ||
317                         probe_kernel_address(eip, c)) {
318                         /* try starting at EIP */
319                         eip = (u8 *)regs->eip;
320                         code_len = code_len - code_prologue + 1;
321                 }
322                 for (i = 0; i < code_len; i++, eip++) {
323                         if (eip < (u8 *)PAGE_OFFSET ||
324                                 probe_kernel_address(eip, c)) {
325                                 printk(" Bad EIP value.");
326                                 break;
327                         }
328                         if (eip == (u8 *)regs->eip)
329                                 printk("<%02x> ", c);
330                         else
331                                 printk("%02x ", c);
332                 }
333         }
334         printk("\n");
335 }       
336
337 int is_valid_bugaddr(unsigned long eip)
338 {
339         unsigned short ud2;
340
341         if (eip < PAGE_OFFSET)
342                 return 0;
343         if (probe_kernel_address((unsigned short *)eip, ud2))
344                 return 0;
345
346         return ud2 == 0x0b0f;
347 }
348
349 /*
350  * This is gone through when something in the kernel has done something bad and
351  * is about to be terminated.
352  */
353 void die(const char * str, struct pt_regs * regs, long err)
354 {
355         static struct {
356                 raw_spinlock_t lock;
357                 u32 lock_owner;
358                 int lock_owner_depth;
359         } die = {
360                 .lock =                 __RAW_SPIN_LOCK_UNLOCKED,
361                 .lock_owner =           -1,
362                 .lock_owner_depth =     0
363         };
364         static int die_counter;
365         unsigned long flags;
366
367         oops_enter();
368
369         if (die.lock_owner != raw_smp_processor_id()) {
370                 console_verbose();
371                 __raw_spin_lock(&die.lock);
372                 raw_local_save_flags(flags);
373                 die.lock_owner = smp_processor_id();
374                 die.lock_owner_depth = 0;
375                 bust_spinlocks(1);
376         }
377         else
378                 raw_local_save_flags(flags);
379
380         if (++die.lock_owner_depth < 3) {
381                 unsigned long esp;
382                 unsigned short ss;
383
384                 report_bug(regs->eip, regs);
385
386                 printk(KERN_EMERG "%s: %04lx [#%d] ", str, err & 0xffff,
387                        ++die_counter);
388 #ifdef CONFIG_PREEMPT
389                 printk("PREEMPT ");
390 #endif
391 #ifdef CONFIG_SMP
392                 printk("SMP ");
393 #endif
394 #ifdef CONFIG_DEBUG_PAGEALLOC
395                 printk("DEBUG_PAGEALLOC");
396 #endif
397                 printk("\n");
398
399                 if (notify_die(DIE_OOPS, str, regs, err,
400                                         current->thread.trap_no, SIGSEGV) !=
401                                 NOTIFY_STOP) {
402                         show_registers(regs);
403                         /* Executive summary in case the oops scrolled away */
404                         esp = (unsigned long) (&regs->esp);
405                         savesegment(ss, ss);
406                         if (user_mode(regs)) {
407                                 esp = regs->esp;
408                                 ss = regs->xss & 0xffff;
409                         }
410                         printk(KERN_EMERG "EIP: [<%08lx>] ", regs->eip);
411                         print_symbol("%s", regs->eip);
412                         printk(" SS:ESP %04x:%08lx\n", ss, esp);
413                 }
414                 else
415                         regs = NULL;
416         } else
417                 printk(KERN_EMERG "Recursive die() failure, output suppressed\n");
418
419         bust_spinlocks(0);
420         die.lock_owner = -1;
421         add_taint(TAINT_DIE);
422         __raw_spin_unlock(&die.lock);
423         raw_local_irq_restore(flags);
424
425         if (!regs)
426                 return;
427
428         if (kexec_should_crash(current))
429                 crash_kexec(regs);
430
431         if (in_interrupt())
432                 panic("Fatal exception in interrupt");
433
434         if (panic_on_oops)
435                 panic("Fatal exception");
436
437         oops_exit();
438         do_exit(SIGSEGV);
439 }
440
441 static inline void die_if_kernel(const char * str, struct pt_regs * regs, long err)
442 {
443         if (!user_mode_vm(regs))
444                 die(str, regs, err);
445 }
446
447 static void __kprobes do_trap(int trapnr, int signr, char *str, int vm86,
448                               struct pt_regs * regs, long error_code,
449                               siginfo_t *info)
450 {
451         struct task_struct *tsk = current;
452
453         if (regs->eflags & VM_MASK) {
454                 if (vm86)
455                         goto vm86_trap;
456                 goto trap_signal;
457         }
458
459         if (!user_mode(regs))
460                 goto kernel_trap;
461
462         trap_signal: {
463                 /*
464                  * We want error_code and trap_no set for userspace faults and
465                  * kernelspace faults which result in die(), but not
466                  * kernelspace faults which are fixed up.  die() gives the
467                  * process no chance to handle the signal and notice the
468                  * kernel fault information, so that won't result in polluting
469                  * the information about previously queued, but not yet
470                  * delivered, faults.  See also do_general_protection below.
471                  */
472                 tsk->thread.error_code = error_code;
473                 tsk->thread.trap_no = trapnr;
474
475                 if (info)
476                         force_sig_info(signr, info, tsk);
477                 else
478                         force_sig(signr, tsk);
479                 return;
480         }
481
482         kernel_trap: {
483                 if (!fixup_exception(regs)) {
484                         tsk->thread.error_code = error_code;
485                         tsk->thread.trap_no = trapnr;
486                         die(str, regs, error_code);
487                 }
488                 return;
489         }
490
491         vm86_trap: {
492                 int ret = handle_vm86_trap((struct kernel_vm86_regs *) regs, error_code, trapnr);
493                 if (ret) goto trap_signal;
494                 return;
495         }
496 }
497
498 #define DO_ERROR(trapnr, signr, str, name) \
499 fastcall void do_##name(struct pt_regs * regs, long error_code) \
500 { \
501         if (notify_die(DIE_TRAP, str, regs, error_code, trapnr, signr) \
502                                                 == NOTIFY_STOP) \
503                 return; \
504         do_trap(trapnr, signr, str, 0, regs, error_code, NULL); \
505 }
506
507 #define DO_ERROR_INFO(trapnr, signr, str, name, sicode, siaddr, irq) \
508 fastcall void do_##name(struct pt_regs * regs, long error_code) \
509 { \
510         siginfo_t info; \
511         if (irq) \
512                 local_irq_enable(); \
513         info.si_signo = signr; \
514         info.si_errno = 0; \
515         info.si_code = sicode; \
516         info.si_addr = (void __user *)siaddr; \
517         if (notify_die(DIE_TRAP, str, regs, error_code, trapnr, signr) \
518                                                 == NOTIFY_STOP) \
519                 return; \
520         do_trap(trapnr, signr, str, 0, regs, error_code, &info); \
521 }
522
523 #define DO_VM86_ERROR(trapnr, signr, str, name) \
524 fastcall void do_##name(struct pt_regs * regs, long error_code) \
525 { \
526         if (notify_die(DIE_TRAP, str, regs, error_code, trapnr, signr) \
527                                                 == NOTIFY_STOP) \
528                 return; \
529         do_trap(trapnr, signr, str, 1, regs, error_code, NULL); \
530 }
531
532 #define DO_VM86_ERROR_INFO(trapnr, signr, str, name, sicode, siaddr) \
533 fastcall void do_##name(struct pt_regs * regs, long error_code) \
534 { \
535         siginfo_t info; \
536         info.si_signo = signr; \
537         info.si_errno = 0; \
538         info.si_code = sicode; \
539         info.si_addr = (void __user *)siaddr; \
540         if (notify_die(DIE_TRAP, str, regs, error_code, trapnr, signr) \
541                                                 == NOTIFY_STOP) \
542                 return; \
543         do_trap(trapnr, signr, str, 1, regs, error_code, &info); \
544 }
545
546 DO_VM86_ERROR_INFO( 0, SIGFPE,  "divide error", divide_error, FPE_INTDIV, regs->eip)
547 #ifndef CONFIG_KPROBES
548 DO_VM86_ERROR( 3, SIGTRAP, "int3", int3)
549 #endif
550 DO_VM86_ERROR( 4, SIGSEGV, "overflow", overflow)
551 DO_VM86_ERROR( 5, SIGSEGV, "bounds", bounds)
552 DO_ERROR_INFO( 6, SIGILL,  "invalid opcode", invalid_op, ILL_ILLOPN, regs->eip, 0)
553 DO_ERROR( 9, SIGFPE,  "coprocessor segment overrun", coprocessor_segment_overrun)
554 DO_ERROR(10, SIGSEGV, "invalid TSS", invalid_TSS)
555 DO_ERROR(11, SIGBUS,  "segment not present", segment_not_present)
556 DO_ERROR(12, SIGBUS,  "stack segment", stack_segment)
557 DO_ERROR_INFO(17, SIGBUS, "alignment check", alignment_check, BUS_ADRALN, 0, 0)
558 DO_ERROR_INFO(32, SIGSEGV, "iret exception", iret_error, ILL_BADSTK, 0, 1)
559
560 fastcall void __kprobes do_general_protection(struct pt_regs * regs,
561                                               long error_code)
562 {
563         int cpu = get_cpu();
564         struct tss_struct *tss = &per_cpu(init_tss, cpu);
565         struct thread_struct *thread = &current->thread;
566
567         /*
568          * Perform the lazy TSS's I/O bitmap copy. If the TSS has an
569          * invalid offset set (the LAZY one) and the faulting thread has
570          * a valid I/O bitmap pointer, we copy the I/O bitmap in the TSS
571          * and we set the offset field correctly. Then we let the CPU to
572          * restart the faulting instruction.
573          */
574         if (tss->x86_tss.io_bitmap_base == INVALID_IO_BITMAP_OFFSET_LAZY &&
575             thread->io_bitmap_ptr) {
576                 memcpy(tss->io_bitmap, thread->io_bitmap_ptr,
577                        thread->io_bitmap_max);
578                 /*
579                  * If the previously set map was extending to higher ports
580                  * than the current one, pad extra space with 0xff (no access).
581                  */
582                 if (thread->io_bitmap_max < tss->io_bitmap_max)
583                         memset((char *) tss->io_bitmap +
584                                 thread->io_bitmap_max, 0xff,
585                                 tss->io_bitmap_max - thread->io_bitmap_max);
586                 tss->io_bitmap_max = thread->io_bitmap_max;
587                 tss->x86_tss.io_bitmap_base = IO_BITMAP_OFFSET;
588                 tss->io_bitmap_owner = thread;
589                 put_cpu();
590                 return;
591         }
592         put_cpu();
593
594         if (regs->eflags & VM_MASK)
595                 goto gp_in_vm86;
596
597         if (!user_mode(regs))
598                 goto gp_in_kernel;
599
600         current->thread.error_code = error_code;
601         current->thread.trap_no = 13;
602         if (show_unhandled_signals && unhandled_signal(current, SIGSEGV) &&
603             printk_ratelimit())
604                 printk(KERN_INFO
605                     "%s[%d] general protection eip:%lx esp:%lx error:%lx\n",
606                     current->comm, task_pid_nr(current),
607                     regs->eip, regs->esp, error_code);
608
609         force_sig(SIGSEGV, current);
610         return;
611
612 gp_in_vm86:
613         local_irq_enable();
614         handle_vm86_fault((struct kernel_vm86_regs *) regs, error_code);
615         return;
616
617 gp_in_kernel:
618         if (!fixup_exception(regs)) {
619                 current->thread.error_code = error_code;
620                 current->thread.trap_no = 13;
621                 if (notify_die(DIE_GPF, "general protection fault", regs,
622                                 error_code, 13, SIGSEGV) == NOTIFY_STOP)
623                         return;
624                 die("general protection fault", regs, error_code);
625         }
626 }
627
628 static __kprobes void
629 mem_parity_error(unsigned char reason, struct pt_regs * regs)
630 {
631         printk(KERN_EMERG "Uhhuh. NMI received for unknown reason %02x on "
632                 "CPU %d.\n", reason, smp_processor_id());
633         printk(KERN_EMERG "You have some hardware problem, likely on the PCI bus.\n");
634
635 #if defined(CONFIG_EDAC)
636         if(edac_handler_set()) {
637                 edac_atomic_assert_error();
638                 return;
639         }
640 #endif
641
642         if (panic_on_unrecovered_nmi)
643                 panic("NMI: Not continuing");
644
645         printk(KERN_EMERG "Dazed and confused, but trying to continue\n");
646
647         /* Clear and disable the memory parity error line. */
648         clear_mem_error(reason);
649 }
650
651 static __kprobes void
652 io_check_error(unsigned char reason, struct pt_regs * regs)
653 {
654         unsigned long i;
655
656         printk(KERN_EMERG "NMI: IOCK error (debug interrupt?)\n");
657         show_registers(regs);
658
659         /* Re-enable the IOCK line, wait for a few seconds */
660         reason = (reason & 0xf) | 8;
661         outb(reason, 0x61);
662         i = 2000;
663         while (--i) udelay(1000);
664         reason &= ~8;
665         outb(reason, 0x61);
666 }
667
668 static __kprobes void
669 unknown_nmi_error(unsigned char reason, struct pt_regs * regs)
670 {
671 #ifdef CONFIG_MCA
672         /* Might actually be able to figure out what the guilty party
673         * is. */
674         if( MCA_bus ) {
675                 mca_handle_nmi();
676                 return;
677         }
678 #endif
679         printk(KERN_EMERG "Uhhuh. NMI received for unknown reason %02x on "
680                 "CPU %d.\n", reason, smp_processor_id());
681         printk(KERN_EMERG "Do you have a strange power saving mode enabled?\n");
682         if (panic_on_unrecovered_nmi)
683                 panic("NMI: Not continuing");
684
685         printk(KERN_EMERG "Dazed and confused, but trying to continue\n");
686 }
687
688 static DEFINE_SPINLOCK(nmi_print_lock);
689
690 void __kprobes die_nmi(struct pt_regs *regs, const char *msg)
691 {
692         if (notify_die(DIE_NMIWATCHDOG, msg, regs, 0, 2, SIGINT) ==
693             NOTIFY_STOP)
694                 return;
695
696         spin_lock(&nmi_print_lock);
697         /*
698         * We are in trouble anyway, lets at least try
699         * to get a message out.
700         */
701         bust_spinlocks(1);
702         printk(KERN_EMERG "%s", msg);
703         printk(" on CPU%d, eip %08lx, registers:\n",
704                 smp_processor_id(), regs->eip);
705         show_registers(regs);
706         console_silent();
707         spin_unlock(&nmi_print_lock);
708         bust_spinlocks(0);
709
710         /* If we are in kernel we are probably nested up pretty bad
711          * and might aswell get out now while we still can.
712         */
713         if (!user_mode_vm(regs)) {
714                 current->thread.trap_no = 2;
715                 crash_kexec(regs);
716         }
717
718         do_exit(SIGSEGV);
719 }
720
721 static __kprobes void default_do_nmi(struct pt_regs * regs)
722 {
723         unsigned char reason = 0;
724
725         /* Only the BSP gets external NMIs from the system.  */
726         if (!smp_processor_id())
727                 reason = get_nmi_reason();
728  
729         if (!(reason & 0xc0)) {
730                 if (notify_die(DIE_NMI_IPI, "nmi_ipi", regs, reason, 2, SIGINT)
731                                                         == NOTIFY_STOP)
732                         return;
733 #ifdef CONFIG_X86_LOCAL_APIC
734                 /*
735                  * Ok, so this is none of the documented NMI sources,
736                  * so it must be the NMI watchdog.
737                  */
738                 if (nmi_watchdog_tick(regs, reason))
739                         return;
740                 if (!do_nmi_callback(regs, smp_processor_id()))
741 #endif
742                         unknown_nmi_error(reason, regs);
743
744                 return;
745         }
746         if (notify_die(DIE_NMI, "nmi", regs, reason, 2, SIGINT) == NOTIFY_STOP)
747                 return;
748         if (reason & 0x80)
749                 mem_parity_error(reason, regs);
750         if (reason & 0x40)
751                 io_check_error(reason, regs);
752         /*
753          * Reassert NMI in case it became active meanwhile
754          * as it's edge-triggered.
755          */
756         reassert_nmi();
757 }
758
759 static int ignore_nmis;
760
761 fastcall __kprobes void do_nmi(struct pt_regs * regs, long error_code)
762 {
763         int cpu;
764
765         nmi_enter();
766
767         cpu = smp_processor_id();
768
769         ++nmi_count(cpu);
770
771         if (!ignore_nmis)
772                 default_do_nmi(regs);
773
774         nmi_exit();
775 }
776
777 void stop_nmi(void)
778 {
779         acpi_nmi_disable();
780         ignore_nmis++;
781 }
782
783 void restart_nmi(void)
784 {
785         ignore_nmis--;
786         acpi_nmi_enable();
787 }
788
789 #ifdef CONFIG_KPROBES
790 fastcall void __kprobes do_int3(struct pt_regs *regs, long error_code)
791 {
792         trace_hardirqs_fixup();
793
794         if (notify_die(DIE_INT3, "int3", regs, error_code, 3, SIGTRAP)
795                         == NOTIFY_STOP)
796                 return;
797         /* This is an interrupt gate, because kprobes wants interrupts
798         disabled.  Normal trap handlers don't. */
799         restore_interrupts(regs);
800         do_trap(3, SIGTRAP, "int3", 1, regs, error_code, NULL);
801 }
802 #endif
803
804 /*
805  * Our handling of the processor debug registers is non-trivial.
806  * We do not clear them on entry and exit from the kernel. Therefore
807  * it is possible to get a watchpoint trap here from inside the kernel.
808  * However, the code in ./ptrace.c has ensured that the user can
809  * only set watchpoints on userspace addresses. Therefore the in-kernel
810  * watchpoint trap can only occur in code which is reading/writing
811  * from user space. Such code must not hold kernel locks (since it
812  * can equally take a page fault), therefore it is safe to call
813  * force_sig_info even though that claims and releases locks.
814  * 
815  * Code in ./signal.c ensures that the debug control register
816  * is restored before we deliver any signal, and therefore that
817  * user code runs with the correct debug control register even though
818  * we clear it here.
819  *
820  * Being careful here means that we don't have to be as careful in a
821  * lot of more complicated places (task switching can be a bit lazy
822  * about restoring all the debug state, and ptrace doesn't have to
823  * find every occurrence of the TF bit that could be saved away even
824  * by user code)
825  */
826 fastcall void __kprobes do_debug(struct pt_regs * regs, long error_code)
827 {
828         unsigned int condition;
829         struct task_struct *tsk = current;
830
831         get_debugreg(condition, 6);
832
833         if (notify_die(DIE_DEBUG, "debug", regs, condition, error_code,
834                                         SIGTRAP) == NOTIFY_STOP)
835                 return;
836         /* It's safe to allow irq's after DR6 has been saved */
837         if (regs->eflags & X86_EFLAGS_IF)
838                 local_irq_enable();
839
840         /* Mask out spurious debug traps due to lazy DR7 setting */
841         if (condition & (DR_TRAP0|DR_TRAP1|DR_TRAP2|DR_TRAP3)) {
842                 if (!tsk->thread.debugreg[7])
843                         goto clear_dr7;
844         }
845
846         if (regs->eflags & VM_MASK)
847                 goto debug_vm86;
848
849         /* Save debug status register where ptrace can see it */
850         tsk->thread.debugreg[6] = condition;
851
852         /*
853          * Single-stepping through TF: make sure we ignore any events in
854          * kernel space (but re-enable TF when returning to user mode).
855          */
856         if (condition & DR_STEP) {
857                 /*
858                  * We already checked v86 mode above, so we can
859                  * check for kernel mode by just checking the CPL
860                  * of CS.
861                  */
862                 if (!user_mode(regs))
863                         goto clear_TF_reenable;
864         }
865
866         /* Ok, finally something we can handle */
867         send_sigtrap(tsk, regs, error_code);
868
869         /* Disable additional traps. They'll be re-enabled when
870          * the signal is delivered.
871          */
872 clear_dr7:
873         set_debugreg(0, 7);
874         return;
875
876 debug_vm86:
877         handle_vm86_trap((struct kernel_vm86_regs *) regs, error_code, 1);
878         return;
879
880 clear_TF_reenable:
881         set_tsk_thread_flag(tsk, TIF_SINGLESTEP);
882         regs->eflags &= ~TF_MASK;
883         return;
884 }
885
886 /*
887  * Note that we play around with the 'TS' bit in an attempt to get
888  * the correct behaviour even in the presence of the asynchronous
889  * IRQ13 behaviour
890  */
891 void math_error(void __user *eip)
892 {
893         struct task_struct * task;
894         siginfo_t info;
895         unsigned short cwd, swd;
896
897         /*
898          * Save the info for the exception handler and clear the error.
899          */
900         task = current;
901         save_init_fpu(task);
902         task->thread.trap_no = 16;
903         task->thread.error_code = 0;
904         info.si_signo = SIGFPE;
905         info.si_errno = 0;
906         info.si_code = __SI_FAULT;
907         info.si_addr = eip;
908         /*
909          * (~cwd & swd) will mask out exceptions that are not set to unmasked
910          * status.  0x3f is the exception bits in these regs, 0x200 is the
911          * C1 reg you need in case of a stack fault, 0x040 is the stack
912          * fault bit.  We should only be taking one exception at a time,
913          * so if this combination doesn't produce any single exception,
914          * then we have a bad program that isn't syncronizing its FPU usage
915          * and it will suffer the consequences since we won't be able to
916          * fully reproduce the context of the exception
917          */
918         cwd = get_fpu_cwd(task);
919         swd = get_fpu_swd(task);
920         switch (swd & ~cwd & 0x3f) {
921                 case 0x000: /* No unmasked exception */
922                         return;
923                 default:    /* Multiple exceptions */
924                         break;
925                 case 0x001: /* Invalid Op */
926                         /*
927                          * swd & 0x240 == 0x040: Stack Underflow
928                          * swd & 0x240 == 0x240: Stack Overflow
929                          * User must clear the SF bit (0x40) if set
930                          */
931                         info.si_code = FPE_FLTINV;
932                         break;
933                 case 0x002: /* Denormalize */
934                 case 0x010: /* Underflow */
935                         info.si_code = FPE_FLTUND;
936                         break;
937                 case 0x004: /* Zero Divide */
938                         info.si_code = FPE_FLTDIV;
939                         break;
940                 case 0x008: /* Overflow */
941                         info.si_code = FPE_FLTOVF;
942                         break;
943                 case 0x020: /* Precision */
944                         info.si_code = FPE_FLTRES;
945                         break;
946         }
947         force_sig_info(SIGFPE, &info, task);
948 }
949
950 fastcall void do_coprocessor_error(struct pt_regs * regs, long error_code)
951 {
952         ignore_fpu_irq = 1;
953         math_error((void __user *)regs->eip);
954 }
955
956 static void simd_math_error(void __user *eip)
957 {
958         struct task_struct * task;
959         siginfo_t info;
960         unsigned short mxcsr;
961
962         /*
963          * Save the info for the exception handler and clear the error.
964          */
965         task = current;
966         save_init_fpu(task);
967         task->thread.trap_no = 19;
968         task->thread.error_code = 0;
969         info.si_signo = SIGFPE;
970         info.si_errno = 0;
971         info.si_code = __SI_FAULT;
972         info.si_addr = eip;
973         /*
974          * The SIMD FPU exceptions are handled a little differently, as there
975          * is only a single status/control register.  Thus, to determine which
976          * unmasked exception was caught we must mask the exception mask bits
977          * at 0x1f80, and then use these to mask the exception bits at 0x3f.
978          */
979         mxcsr = get_fpu_mxcsr(task);
980         switch (~((mxcsr & 0x1f80) >> 7) & (mxcsr & 0x3f)) {
981                 case 0x000:
982                 default:
983                         break;
984                 case 0x001: /* Invalid Op */
985                         info.si_code = FPE_FLTINV;
986                         break;
987                 case 0x002: /* Denormalize */
988                 case 0x010: /* Underflow */
989                         info.si_code = FPE_FLTUND;
990                         break;
991                 case 0x004: /* Zero Divide */
992                         info.si_code = FPE_FLTDIV;
993                         break;
994                 case 0x008: /* Overflow */
995                         info.si_code = FPE_FLTOVF;
996                         break;
997                 case 0x020: /* Precision */
998                         info.si_code = FPE_FLTRES;
999                         break;
1000         }
1001         force_sig_info(SIGFPE, &info, task);
1002 }
1003
1004 fastcall void do_simd_coprocessor_error(struct pt_regs * regs,
1005                                           long error_code)
1006 {
1007         if (cpu_has_xmm) {
1008                 /* Handle SIMD FPU exceptions on PIII+ processors. */
1009                 ignore_fpu_irq = 1;
1010                 simd_math_error((void __user *)regs->eip);
1011         } else {
1012                 /*
1013                  * Handle strange cache flush from user space exception
1014                  * in all other cases.  This is undocumented behaviour.
1015                  */
1016                 if (regs->eflags & VM_MASK) {
1017                         handle_vm86_fault((struct kernel_vm86_regs *)regs,
1018                                           error_code);
1019                         return;
1020                 }
1021                 current->thread.trap_no = 19;
1022                 current->thread.error_code = error_code;
1023                 die_if_kernel("cache flush denied", regs, error_code);
1024                 force_sig(SIGSEGV, current);
1025         }
1026 }
1027
1028 fastcall void do_spurious_interrupt_bug(struct pt_regs * regs,
1029                                           long error_code)
1030 {
1031 #if 0
1032         /* No need to warn about this any longer. */
1033         printk("Ignoring P6 Local APIC Spurious Interrupt Bug...\n");
1034 #endif
1035 }
1036
1037 fastcall unsigned long patch_espfix_desc(unsigned long uesp,
1038                                           unsigned long kesp)
1039 {
1040         struct desc_struct *gdt = __get_cpu_var(gdt_page).gdt;
1041         unsigned long base = (kesp - uesp) & -THREAD_SIZE;
1042         unsigned long new_kesp = kesp - base;
1043         unsigned long lim_pages = (new_kesp | (THREAD_SIZE - 1)) >> PAGE_SHIFT;
1044         __u64 desc = *(__u64 *)&gdt[GDT_ENTRY_ESPFIX_SS];
1045         /* Set up base for espfix segment */
1046         desc &= 0x00f0ff0000000000ULL;
1047         desc |= ((((__u64)base) << 16) & 0x000000ffffff0000ULL) |
1048                 ((((__u64)base) << 32) & 0xff00000000000000ULL) |
1049                 ((((__u64)lim_pages) << 32) & 0x000f000000000000ULL) |
1050                 (lim_pages & 0xffff);
1051         *(__u64 *)&gdt[GDT_ENTRY_ESPFIX_SS] = desc;
1052         return new_kesp;
1053 }
1054
1055 /*
1056  *  'math_state_restore()' saves the current math information in the
1057  * old math state array, and gets the new ones from the current task
1058  *
1059  * Careful.. There are problems with IBM-designed IRQ13 behaviour.
1060  * Don't touch unless you *really* know how it works.
1061  *
1062  * Must be called with kernel preemption disabled (in this case,
1063  * local interrupts are disabled at the call-site in entry.S).
1064  */
1065 asmlinkage void math_state_restore(void)
1066 {
1067         struct thread_info *thread = current_thread_info();
1068         struct task_struct *tsk = thread->task;
1069
1070         clts();         /* Allow maths ops (or we recurse) */
1071         if (!tsk_used_math(tsk))
1072                 init_fpu(tsk);
1073         restore_fpu(tsk);
1074         thread->status |= TS_USEDFPU;   /* So we fnsave on switch_to() */
1075         tsk->fpu_counter++;
1076 }
1077 EXPORT_SYMBOL_GPL(math_state_restore);
1078
1079 #ifndef CONFIG_MATH_EMULATION
1080
1081 asmlinkage void math_emulate(long arg)
1082 {
1083         printk(KERN_EMERG "math-emulation not enabled and no coprocessor found.\n");
1084         printk(KERN_EMERG "killing %s.\n",current->comm);
1085         force_sig(SIGFPE,current);
1086         schedule();
1087 }
1088
1089 #endif /* CONFIG_MATH_EMULATION */
1090
1091 /*
1092  * This needs to use 'idt_table' rather than 'idt', and
1093  * thus use the _nonmapped_ version of the IDT, as the
1094  * Pentium F0 0F bugfix can have resulted in the mapped
1095  * IDT being write-protected.
1096  */
1097 void set_intr_gate(unsigned int n, void *addr)
1098 {
1099         _set_gate(n, DESCTYPE_INT, addr, __KERNEL_CS);
1100 }
1101
1102 /*
1103  * This routine sets up an interrupt gate at directory privilege level 3.
1104  */
1105 static inline void set_system_intr_gate(unsigned int n, void *addr)
1106 {
1107         _set_gate(n, DESCTYPE_INT | DESCTYPE_DPL3, addr, __KERNEL_CS);
1108 }
1109
1110 static void __init set_trap_gate(unsigned int n, void *addr)
1111 {
1112         _set_gate(n, DESCTYPE_TRAP, addr, __KERNEL_CS);
1113 }
1114
1115 static void __init set_system_gate(unsigned int n, void *addr)
1116 {
1117         _set_gate(n, DESCTYPE_TRAP | DESCTYPE_DPL3, addr, __KERNEL_CS);
1118 }
1119
1120 static void __init set_task_gate(unsigned int n, unsigned int gdt_entry)
1121 {
1122         _set_gate(n, DESCTYPE_TASK, (void *)0, (gdt_entry<<3));
1123 }
1124
1125
1126 void __init trap_init(void)
1127 {
1128         int i;
1129
1130 #ifdef CONFIG_EISA
1131         void __iomem *p = ioremap(0x0FFFD9, 4);
1132         if (readl(p) == 'E'+('I'<<8)+('S'<<16)+('A'<<24)) {
1133                 EISA_bus = 1;
1134         }
1135         iounmap(p);
1136 #endif
1137
1138 #ifdef CONFIG_X86_LOCAL_APIC
1139         init_apic_mappings();
1140 #endif
1141
1142         set_trap_gate(0,&divide_error);
1143         set_intr_gate(1,&debug);
1144         set_intr_gate(2,&nmi);
1145         set_system_intr_gate(3, &int3); /* int3/4 can be called from all */
1146         set_system_gate(4,&overflow);
1147         set_trap_gate(5,&bounds);
1148         set_trap_gate(6,&invalid_op);
1149         set_trap_gate(7,&device_not_available);
1150         set_task_gate(8,GDT_ENTRY_DOUBLEFAULT_TSS);
1151         set_trap_gate(9,&coprocessor_segment_overrun);
1152         set_trap_gate(10,&invalid_TSS);
1153         set_trap_gate(11,&segment_not_present);
1154         set_trap_gate(12,&stack_segment);
1155         set_trap_gate(13,&general_protection);
1156         set_intr_gate(14,&page_fault);
1157         set_trap_gate(15,&spurious_interrupt_bug);
1158         set_trap_gate(16,&coprocessor_error);
1159         set_trap_gate(17,&alignment_check);
1160 #ifdef CONFIG_X86_MCE
1161         set_trap_gate(18,&machine_check);
1162 #endif
1163         set_trap_gate(19,&simd_coprocessor_error);
1164
1165         if (cpu_has_fxsr) {
1166                 /*
1167                  * Verify that the FXSAVE/FXRSTOR data will be 16-byte aligned.
1168                  * Generates a compile-time "error: zero width for bit-field" if
1169                  * the alignment is wrong.
1170                  */
1171                 struct fxsrAlignAssert {
1172                         int _:!(offsetof(struct task_struct,
1173                                         thread.i387.fxsave) & 15);
1174                 };
1175
1176                 printk(KERN_INFO "Enabling fast FPU save and restore... ");
1177                 set_in_cr4(X86_CR4_OSFXSR);
1178                 printk("done.\n");
1179         }
1180         if (cpu_has_xmm) {
1181                 printk(KERN_INFO "Enabling unmasked SIMD FPU exception "
1182                                 "support... ");
1183                 set_in_cr4(X86_CR4_OSXMMEXCPT);
1184                 printk("done.\n");
1185         }
1186
1187         set_system_gate(SYSCALL_VECTOR,&system_call);
1188
1189         /* Reserve all the builtin and the syscall vector. */
1190         for (i = 0; i < FIRST_EXTERNAL_VECTOR; i++)
1191                 set_bit(i, used_vectors);
1192         set_bit(SYSCALL_VECTOR, used_vectors);
1193
1194         /*
1195          * Should be a barrier for any external CPU state.
1196          */
1197         cpu_init();
1198
1199         trap_init_hook();
1200 }
1201
1202 static int __init kstack_setup(char *s)
1203 {
1204         kstack_depth_to_print = simple_strtoul(s, NULL, 0);
1205         return 1;
1206 }
1207 __setup("kstack=", kstack_setup);
1208
1209 static int __init code_bytes_setup(char *s)
1210 {
1211         code_bytes = simple_strtoul(s, NULL, 0);
1212         if (code_bytes > 8192)
1213                 code_bytes = 8192;
1214
1215         return 1;
1216 }
1217 __setup("code_bytes=", code_bytes_setup);