[PATCH] completely disable cpu_exclusive sched domain
[linux-2.6] / arch / um / include / sysdep-x86_64 / stub.h
1 /*
2  * Copyright (C) 2004 Jeff Dike (jdike@addtoit.com)
3  * Licensed under the GPL
4  */
5
6 #ifndef __SYSDEP_STUB_H
7 #define __SYSDEP_STUB_H
8
9 #include <asm/ptrace.h>
10 #include <asm/unistd.h>
11 #include <sysdep/ptrace_user.h>
12
13 extern void stub_segv_handler(int sig);
14 extern void stub_clone_handler(void);
15
16 #define STUB_SYSCALL_RET PT_INDEX(RAX)
17 #define STUB_MMAP_NR __NR_mmap
18 #define MMAP_OFFSET(o) (o)
19
20 static inline long stub_syscall2(long syscall, long arg1, long arg2)
21 {
22         long ret;
23
24         __asm__("movq %0, %%rsi; " : : "g" (arg2) : "%rsi");
25         __asm__("movq %0, %%rdi; " : : "g" (arg1) : "%rdi");
26         __asm__("movq %0, %%rax; " : : "g" (syscall) : "%rax");
27         __asm__("syscall;" : : : "%rax", "%r11", "%rcx");
28         __asm__ __volatile__("movq %%rax, %0; " : "=g" (ret) :);
29         return(ret);
30 }
31
32 static inline long stub_syscall3(long syscall, long arg1, long arg2, long arg3)
33 {
34         __asm__("movq %0, %%rdx; " : : "g" (arg3) : "%rdx");
35         return(stub_syscall2(syscall, arg1, arg2));
36 }
37
38 static inline long stub_syscall4(long syscall, long arg1, long arg2, long arg3,
39                                  long arg4)
40 {
41         __asm__("movq %0, %%r10; " : : "g" (arg4) : "%r10");
42         return(stub_syscall3(syscall, arg1, arg2, arg3));
43 }
44
45 static inline long stub_syscall6(long syscall, long arg1, long arg2, long arg3,
46                                  long arg4, long arg5, long arg6)
47 {
48         __asm__("movq %0, %%r9; " : : "g" (arg6) : "%r9");
49         __asm__("movq %0, %%r8; " : : "g" (arg5) : "%r8");
50         return(stub_syscall4(syscall, arg1, arg2, arg3, arg4));
51 }
52
53 static inline void trap_myself(void)
54 {
55         __asm("int3");
56 }
57
58 #endif