Pull asus into release branch
[linux-2.6] / Documentation / cpu-hotplug.txt
1                 CPU hotplug Support in Linux(tm) Kernel
2
3                 Maintainers:
4                 CPU Hotplug Core:
5                         Rusty Russell <rusty@rustycorp.com.au>
6                         Srivatsa Vaddagiri <vatsa@in.ibm.com>
7                 i386:
8                         Zwane Mwaikambo <zwane@arm.linux.org.uk>
9                 ppc64:
10                         Nathan Lynch <nathanl@austin.ibm.com>
11                         Joel Schopp <jschopp@austin.ibm.com>
12                 ia64/x86_64:
13                         Ashok Raj <ashok.raj@intel.com>
14                 s390:
15                         Heiko Carstens <heiko.carstens@de.ibm.com>
16
17 Authors: Ashok Raj <ashok.raj@intel.com>
18 Lots of feedback: Nathan Lynch <nathanl@austin.ibm.com>,
19              Joel Schopp <jschopp@austin.ibm.com>
20
21 Introduction
22
23 Modern advances in system architectures have introduced advanced error
24 reporting and correction capabilities in processors. CPU architectures permit
25 partitioning support, where compute resources of a single CPU could be made
26 available to virtual machine environments. There are couple OEMS that
27 support NUMA hardware which are hot pluggable as well, where physical
28 node insertion and removal require support for CPU hotplug.
29
30 Such advances require CPUs available to a kernel to be removed either for
31 provisioning reasons, or for RAS purposes to keep an offending CPU off
32 system execution path. Hence the need for CPU hotplug support in the
33 Linux kernel.
34
35 A more novel use of CPU-hotplug support is its use today in suspend
36 resume support for SMP. Dual-core and HT support makes even
37 a laptop run SMP kernels which didn't support these methods. SMP support
38 for suspend/resume is a work in progress.
39
40 General Stuff about CPU Hotplug
41 --------------------------------
42
43 Command Line Switches
44 ---------------------
45 maxcpus=n    Restrict boot time cpus to n. Say if you have 4 cpus, using
46              maxcpus=2 will only boot 2. You can choose to bring the
47              other cpus later online, read FAQ's for more info.
48
49 additional_cpus=n (*)   Use this to limit hotpluggable cpus. This option sets
50                         cpu_possible_map = cpu_present_map + additional_cpus
51
52 (*) Option valid only for following architectures
53 - x86_64, ia64, s390
54
55 ia64 and x86_64 use the number of disabled local apics in ACPI tables MADT
56 to determine the number of potentially hot-pluggable cpus. The implementation
57 should only rely on this to count the # of cpus, but *MUST* not rely on the
58 apicid values in those tables for disabled apics. In the event BIOS doesn't
59 mark such hot-pluggable cpus as disabled entries, one could use this
60 parameter "additional_cpus=x" to represent those cpus in the cpu_possible_map.
61
62 s390 uses the number of cpus it detects at IPL time to also the number of bits
63 in cpu_possible_map. If it is desired to add additional cpus at a later time
64 the number should be specified using this option or the possible_cpus option.
65
66 possible_cpus=n         [s390 only] use this to set hotpluggable cpus.
67                         This option sets possible_cpus bits in
68                         cpu_possible_map. Thus keeping the numbers of bits set
69                         constant even if the machine gets rebooted.
70                         This option overrides additional_cpus.
71
72 CPU maps and such
73 -----------------
74 [More on cpumaps and primitive to manipulate, please check
75 include/linux/cpumask.h that has more descriptive text.]
76
77 cpu_possible_map: Bitmap of possible CPUs that can ever be available in the
78 system. This is used to allocate some boot time memory for per_cpu variables
79 that aren't designed to grow/shrink as CPUs are made available or removed.
80 Once set during boot time discovery phase, the map is static, i.e no bits
81 are added or removed anytime.  Trimming it accurately for your system needs
82 upfront can save some boot time memory. See below for how we use heuristics
83 in x86_64 case to keep this under check.
84
85 cpu_online_map: Bitmap of all CPUs currently online. Its set in __cpu_up()
86 after a cpu is available for kernel scheduling and ready to receive
87 interrupts from devices. Its cleared when a cpu is brought down using
88 __cpu_disable(), before which all OS services including interrupts are
89 migrated to another target CPU.
90
91 cpu_present_map: Bitmap of CPUs currently present in the system. Not all
92 of them may be online. When physical hotplug is processed by the relevant
93 subsystem (e.g ACPI) can change and new bit either be added or removed
94 from the map depending on the event is hot-add/hot-remove. There are currently
95 no locking rules as of now. Typical usage is to init topology during boot,
96 at which time hotplug is disabled.
97
98 You really dont need to manipulate any of the system cpu maps. They should
99 be read-only for most use. When setting up per-cpu resources almost always use
100 cpu_possible_map/for_each_possible_cpu() to iterate.
101
102 Never use anything other than cpumask_t to represent bitmap of CPUs.
103
104         #include <linux/cpumask.h>
105
106         for_each_possible_cpu     - Iterate over cpu_possible_map
107         for_each_online_cpu       - Iterate over cpu_online_map
108         for_each_present_cpu      - Iterate over cpu_present_map
109         for_each_cpu_mask(x,mask) - Iterate over some random collection of cpu mask.
110
111         #include <linux/cpu.h>
112         lock_cpu_hotplug() and unlock_cpu_hotplug():
113
114 The above calls are used to inhibit cpu hotplug operations. While holding the
115 cpucontrol mutex, cpu_online_map will not change. If you merely need to avoid
116 cpus going away, you could also use preempt_disable() and preempt_enable()
117 for those sections. Just remember the critical section cannot call any
118 function that can sleep or schedule this process away. The preempt_disable()
119 will work as long as stop_machine_run() is used to take a cpu down.
120
121 CPU Hotplug - Frequently Asked Questions.
122
123 Q: How to enable my kernel to support CPU hotplug?
124 A: When doing make defconfig, Enable CPU hotplug support
125
126    "Processor type and Features" -> Support for Hotpluggable CPUs
127
128 Make sure that you have CONFIG_HOTPLUG, and CONFIG_SMP turned on as well.
129
130 You would need to enable CONFIG_HOTPLUG_CPU for SMP suspend/resume support
131 as well.
132
133 Q: What architectures support CPU hotplug?
134 A: As of 2.6.14, the following architectures support CPU hotplug.
135
136 i386 (Intel), ppc, ppc64, parisc, s390, ia64 and x86_64
137
138 Q: How to test if hotplug is supported on the newly built kernel?
139 A: You should now notice an entry in sysfs.
140
141 Check if sysfs is mounted, using the "mount" command. You should notice
142 an entry as shown below in the output.
143
144         ....
145         none on /sys type sysfs (rw)
146         ....
147
148 If this is not mounted, do the following.
149
150          #mkdir /sysfs
151         #mount -t sysfs sys /sys
152
153 Now you should see entries for all present cpu, the following is an example
154 in a 8-way system.
155
156         #pwd
157         #/sys/devices/system/cpu
158         #ls -l
159         total 0
160         drwxr-xr-x  10 root root 0 Sep 19 07:44 .
161         drwxr-xr-x  13 root root 0 Sep 19 07:45 ..
162         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu0
163         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu1
164         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu2
165         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu3
166         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu4
167         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu5
168         drwxr-xr-x   3 root root 0 Sep 19 07:44 cpu6
169         drwxr-xr-x   3 root root 0 Sep 19 07:48 cpu7
170
171 Under each directory you would find an "online" file which is the control
172 file to logically online/offline a processor.
173
174 Q: Does hot-add/hot-remove refer to physical add/remove of cpus?
175 A: The usage of hot-add/remove may not be very consistently used in the code.
176 CONFIG_HOTPLUG_CPU enables logical online/offline capability in the kernel.
177 To support physical addition/removal, one would need some BIOS hooks and
178 the platform should have something like an attention button in PCI hotplug.
179 CONFIG_ACPI_HOTPLUG_CPU enables ACPI support for physical add/remove of CPUs.
180
181 Q: How do i logically offline a CPU?
182 A: Do the following.
183
184         #echo 0 > /sys/devices/system/cpu/cpuX/online
185
186 Once the logical offline is successful, check
187
188         #cat /proc/interrupts
189
190 You should now not see the CPU that you removed. Also online file will report
191 the state as 0 when a cpu if offline and 1 when its online.
192
193         #To display the current cpu state.
194         #cat /sys/devices/system/cpu/cpuX/online
195
196 Q: Why cant i remove CPU0 on some systems?
197 A: Some architectures may have some special dependency on a certain CPU.
198
199 For e.g in IA64 platforms we have ability to sent platform interrupts to the
200 OS. a.k.a Corrected Platform Error Interrupts (CPEI). In current ACPI
201 specifications, we didn't have a way to change the target CPU. Hence if the
202 current ACPI version doesn't support such re-direction, we disable that CPU
203 by making it not-removable.
204
205 In such cases you will also notice that the online file is missing under cpu0.
206
207 Q: How do i find out if a particular CPU is not removable?
208 A: Depending on the implementation, some architectures may show this by the
209 absence of the "online" file. This is done if it can be determined ahead of
210 time that this CPU cannot be removed.
211
212 In some situations, this can be a run time check, i.e if you try to remove the
213 last CPU, this will not be permitted. You can find such failures by
214 investigating the return value of the "echo" command.
215
216 Q: What happens when a CPU is being logically offlined?
217 A: The following happen, listed in no particular order :-)
218
219 - A notification is sent to in-kernel registered modules by sending an event
220   CPU_DOWN_PREPARE or CPU_DOWN_PREPARE_FROZEN, depending on whether or not the
221   CPU is being offlined while tasks are frozen due to a suspend operation in
222   progress
223 - All process is migrated away from this outgoing CPU to a new CPU
224 - All interrupts targeted to this CPU is migrated to a new CPU
225 - timers/bottom half/task lets are also migrated to a new CPU
226 - Once all services are migrated, kernel calls an arch specific routine
227   __cpu_disable() to perform arch specific cleanup.
228 - Once this is successful, an event for successful cleanup is sent by an event
229   CPU_DEAD (or CPU_DEAD_FROZEN if tasks are frozen due to a suspend while the
230   CPU is being offlined).
231
232   "It is expected that each service cleans up when the CPU_DOWN_PREPARE
233   notifier is called, when CPU_DEAD is called its expected there is nothing
234   running on behalf of this CPU that was offlined"
235
236 Q: If i have some kernel code that needs to be aware of CPU arrival and
237    departure, how to i arrange for proper notification?
238 A: This is what you would need in your kernel code to receive notifications.
239
240         #include <linux/cpu.h>
241         static int __cpuinit foobar_cpu_callback(struct notifier_block *nfb,
242                                             unsigned long action, void *hcpu)
243         {
244                 unsigned int cpu = (unsigned long)hcpu;
245
246                 switch (action) {
247                 case CPU_ONLINE:
248                 case CPU_ONLINE_FROZEN:
249                         foobar_online_action(cpu);
250                         break;
251                 case CPU_DEAD:
252                 case CPU_DEAD_FROZEN:
253                         foobar_dead_action(cpu);
254                         break;
255                 }
256                 return NOTIFY_OK;
257         }
258
259         static struct notifier_block __cpuinitdata foobar_cpu_notifer =
260         {
261            .notifier_call = foobar_cpu_callback,
262         };
263
264 You need to call register_cpu_notifier() from your init function.
265 Init functions could be of two types:
266 1. early init (init function called when only the boot processor is online).
267 2. late init (init function called _after_ all the CPUs are online).
268
269 For the first case, you should add the following to your init function
270
271         register_cpu_notifier(&foobar_cpu_notifier);
272
273 For the second case, you should add the following to your init function
274
275         register_hotcpu_notifier(&foobar_cpu_notifier);
276
277 You can fail PREPARE notifiers if something doesn't work to prepare resources.
278 This will stop the activity and send a following CANCELED event back.
279
280 CPU_DEAD should not be failed, its just a goodness indication, but bad
281 things will happen if a notifier in path sent a BAD notify code.
282
283 Q: I don't see my action being called for all CPUs already up and running?
284 A: Yes, CPU notifiers are called only when new CPUs are on-lined or offlined.
285    If you need to perform some action for each cpu already in the system, then
286
287         for_each_online_cpu(i) {
288                 foobar_cpu_callback(&foobar_cpu_notifier, CPU_UP_PREPARE, i);
289                 foobar_cpu_callback(&foobar_cpu_notifier, CPU_ONLINE, i);
290         }
291
292 Q: If i would like to develop cpu hotplug support for a new architecture,
293    what do i need at a minimum?
294 A: The following are what is required for CPU hotplug infrastructure to work
295    correctly.
296
297     - Make sure you have an entry in Kconfig to enable CONFIG_HOTPLUG_CPU
298     - __cpu_up()        - Arch interface to bring up a CPU
299     - __cpu_disable()   - Arch interface to shutdown a CPU, no more interrupts
300                           can be handled by the kernel after the routine
301                           returns. Including local APIC timers etc are
302                           shutdown.
303      - __cpu_die()      - This actually supposed to ensure death of the CPU.
304                           Actually look at some example code in other arch
305                           that implement CPU hotplug. The processor is taken
306                           down from the idle() loop for that specific
307                           architecture. __cpu_die() typically waits for some
308                           per_cpu state to be set, to ensure the processor
309                           dead routine is called to be sure positively.
310
311 Q: I need to ensure that a particular cpu is not removed when there is some
312    work specific to this cpu is in progress.
313 A: First switch the current thread context to preferred cpu
314
315         int my_func_on_cpu(int cpu)
316         {
317                 cpumask_t saved_mask, new_mask = CPU_MASK_NONE;
318                 int curr_cpu, err = 0;
319
320                 saved_mask = current->cpus_allowed;
321                 cpu_set(cpu, new_mask);
322                 err = set_cpus_allowed(current, new_mask);
323
324                 if (err)
325                         return err;
326
327                 /*
328                  * If we got scheduled out just after the return from
329                  * set_cpus_allowed() before running the work, this ensures
330                  * we stay locked.
331                  */
332                 curr_cpu = get_cpu();
333
334                 if (curr_cpu != cpu) {
335                         err = -EAGAIN;
336                         goto ret;
337                 } else {
338                         /*
339                          * Do work : But cant sleep, since get_cpu() disables preempt
340                          */
341                 }
342                 ret:
343                         put_cpu();
344                         set_cpus_allowed(current, saved_mask);
345                         return err;
346                 }
347
348
349 Q: How do we determine how many CPUs are available for hotplug.
350 A: There is no clear spec defined way from ACPI that can give us that
351    information today. Based on some input from Natalie of Unisys,
352    that the ACPI MADT (Multiple APIC Description Tables) marks those possible
353    CPUs in a system with disabled status.
354
355    Andi implemented some simple heuristics that count the number of disabled
356    CPUs in MADT as hotpluggable CPUS.  In the case there are no disabled CPUS
357    we assume 1/2 the number of CPUs currently present can be hotplugged.
358
359    Caveat: Today's ACPI MADT can only provide 256 entries since the apicid field
360    in MADT is only 8 bits.
361
362 User Space Notification
363
364 Hotplug support for devices is common in Linux today. Its being used today to
365 support automatic configuration of network, usb and pci devices. A hotplug
366 event can be used to invoke an agent script to perform the configuration task.
367
368 You can add /etc/hotplug/cpu.agent to handle hotplug notification user space
369 scripts.
370
371         #!/bin/bash
372         # $Id: cpu.agent
373         # Kernel hotplug params include:
374         #ACTION=%s [online or offline]
375         #DEVPATH=%s
376         #
377         cd /etc/hotplug
378         . ./hotplug.functions
379
380         case $ACTION in
381                 online)
382                         echo `date` ":cpu.agent" add cpu >> /tmp/hotplug.txt
383                         ;;
384                 offline)
385                         echo `date` ":cpu.agent" remove cpu >>/tmp/hotplug.txt
386                         ;;
387                 *)
388                         debug_mesg CPU $ACTION event not supported
389         exit 1
390         ;;
391         esac