Merge branch 'upstream' of git://ftp.linux-mips.org/pub/scm/upstream-linus
[linux-2.6] / net / sunrpc / svc.c
1 /*
2  * linux/net/sunrpc/svc.c
3  *
4  * High-level RPC service routines
5  *
6  * Copyright (C) 1995, 1996 Olaf Kirch <okir@monad.swb.de>
7  *
8  * Multiple threads pools and NUMAisation
9  * Copyright (c) 2006 Silicon Graphics, Inc.
10  * by Greg Banks <gnb@melbourne.sgi.com>
11  */
12
13 #include <linux/linkage.h>
14 #include <linux/sched.h>
15 #include <linux/errno.h>
16 #include <linux/net.h>
17 #include <linux/in.h>
18 #include <linux/mm.h>
19 #include <linux/interrupt.h>
20 #include <linux/module.h>
21
22 #include <linux/sunrpc/types.h>
23 #include <linux/sunrpc/xdr.h>
24 #include <linux/sunrpc/stats.h>
25 #include <linux/sunrpc/svcsock.h>
26 #include <linux/sunrpc/clnt.h>
27
28 #define RPCDBG_FACILITY RPCDBG_SVCDSP
29 #define RPC_PARANOIA 1
30
31 /*
32  * Mode for mapping cpus to pools.
33  */
34 enum {
35         SVC_POOL_NONE = -1,     /* uninitialised, choose one of the others */
36         SVC_POOL_GLOBAL,        /* no mapping, just a single global pool
37                                  * (legacy & UP mode) */
38         SVC_POOL_PERCPU,        /* one pool per cpu */
39         SVC_POOL_PERNODE        /* one pool per numa node */
40 };
41
42 /*
43  * Structure for mapping cpus to pools and vice versa.
44  * Setup once during sunrpc initialisation.
45  */
46 static struct svc_pool_map {
47         int mode;                       /* Note: int not enum to avoid
48                                          * warnings about "enumeration value
49                                          * not handled in switch" */
50         unsigned int npools;
51         unsigned int *pool_to;          /* maps pool id to cpu or node */
52         unsigned int *to_pool;          /* maps cpu or node to pool id */
53 } svc_pool_map = {
54         .mode = SVC_POOL_NONE
55 };
56
57
58 /*
59  * Detect best pool mapping mode heuristically,
60  * according to the machine's topology.
61  */
62 static int
63 svc_pool_map_choose_mode(void)
64 {
65         unsigned int node;
66
67         if (num_online_nodes() > 1) {
68                 /*
69                  * Actually have multiple NUMA nodes,
70                  * so split pools on NUMA node boundaries
71                  */
72                 return SVC_POOL_PERNODE;
73         }
74
75         node = any_online_node(node_online_map);
76         if (nr_cpus_node(node) > 2) {
77                 /*
78                  * Non-trivial SMP, or CONFIG_NUMA on
79                  * non-NUMA hardware, e.g. with a generic
80                  * x86_64 kernel on Xeons.  In this case we
81                  * want to divide the pools on cpu boundaries.
82                  */
83                 return SVC_POOL_PERCPU;
84         }
85
86         /* default: one global pool */
87         return SVC_POOL_GLOBAL;
88 }
89
90 /*
91  * Allocate the to_pool[] and pool_to[] arrays.
92  * Returns 0 on success or an errno.
93  */
94 static int
95 svc_pool_map_alloc_arrays(struct svc_pool_map *m, unsigned int maxpools)
96 {
97         m->to_pool = kcalloc(maxpools, sizeof(unsigned int), GFP_KERNEL);
98         if (!m->to_pool)
99                 goto fail;
100         m->pool_to = kcalloc(maxpools, sizeof(unsigned int), GFP_KERNEL);
101         if (!m->pool_to)
102                 goto fail_free;
103
104         return 0;
105
106 fail_free:
107         kfree(m->to_pool);
108 fail:
109         return -ENOMEM;
110 }
111
112 /*
113  * Initialise the pool map for SVC_POOL_PERCPU mode.
114  * Returns number of pools or <0 on error.
115  */
116 static int
117 svc_pool_map_init_percpu(struct svc_pool_map *m)
118 {
119         unsigned int maxpools = highest_possible_processor_id()+1;
120         unsigned int pidx = 0;
121         unsigned int cpu;
122         int err;
123
124         err = svc_pool_map_alloc_arrays(m, maxpools);
125         if (err)
126                 return err;
127
128         for_each_online_cpu(cpu) {
129                 BUG_ON(pidx > maxpools);
130                 m->to_pool[cpu] = pidx;
131                 m->pool_to[pidx] = cpu;
132                 pidx++;
133         }
134         /* cpus brought online later all get mapped to pool0, sorry */
135
136         return pidx;
137 };
138
139
140 /*
141  * Initialise the pool map for SVC_POOL_PERNODE mode.
142  * Returns number of pools or <0 on error.
143  */
144 static int
145 svc_pool_map_init_pernode(struct svc_pool_map *m)
146 {
147         unsigned int maxpools = highest_possible_node_id()+1;
148         unsigned int pidx = 0;
149         unsigned int node;
150         int err;
151
152         err = svc_pool_map_alloc_arrays(m, maxpools);
153         if (err)
154                 return err;
155
156         for_each_node_with_cpus(node) {
157                 /* some architectures (e.g. SN2) have cpuless nodes */
158                 BUG_ON(pidx > maxpools);
159                 m->to_pool[node] = pidx;
160                 m->pool_to[pidx] = node;
161                 pidx++;
162         }
163         /* nodes brought online later all get mapped to pool0, sorry */
164
165         return pidx;
166 }
167
168
169 /*
170  * Build the global map of cpus to pools and vice versa.
171  */
172 static unsigned int
173 svc_pool_map_init(void)
174 {
175         struct svc_pool_map *m = &svc_pool_map;
176         int npools = -1;
177
178         if (m->mode != SVC_POOL_NONE)
179                 return m->npools;
180
181         m->mode = svc_pool_map_choose_mode();
182
183         switch (m->mode) {
184         case SVC_POOL_PERCPU:
185                 npools = svc_pool_map_init_percpu(m);
186                 break;
187         case SVC_POOL_PERNODE:
188                 npools = svc_pool_map_init_pernode(m);
189                 break;
190         }
191
192         if (npools < 0) {
193                 /* default, or memory allocation failure */
194                 npools = 1;
195                 m->mode = SVC_POOL_GLOBAL;
196         }
197         m->npools = npools;
198
199         return m->npools;
200 }
201
202 /*
203  * Set the current thread's cpus_allowed mask so that it
204  * will only run on cpus in the given pool.
205  *
206  * Returns 1 and fills in oldmask iff a cpumask was applied.
207  */
208 static inline int
209 svc_pool_map_set_cpumask(unsigned int pidx, cpumask_t *oldmask)
210 {
211         struct svc_pool_map *m = &svc_pool_map;
212         unsigned int node; /* or cpu */
213
214         /*
215          * The caller checks for sv_nrpools > 1, which
216          * implies that we've been initialized and the
217          * map mode is not NONE.
218          */
219         BUG_ON(m->mode == SVC_POOL_NONE);
220
221         switch (m->mode)
222         {
223         default:
224                 return 0;
225         case SVC_POOL_PERCPU:
226                 node = m->pool_to[pidx];
227                 *oldmask = current->cpus_allowed;
228                 set_cpus_allowed(current, cpumask_of_cpu(node));
229                 return 1;
230         case SVC_POOL_PERNODE:
231                 node = m->pool_to[pidx];
232                 *oldmask = current->cpus_allowed;
233                 set_cpus_allowed(current, node_to_cpumask(node));
234                 return 1;
235         }
236 }
237
238 /*
239  * Use the mapping mode to choose a pool for a given CPU.
240  * Used when enqueueing an incoming RPC.  Always returns
241  * a non-NULL pool pointer.
242  */
243 struct svc_pool *
244 svc_pool_for_cpu(struct svc_serv *serv, int cpu)
245 {
246         struct svc_pool_map *m = &svc_pool_map;
247         unsigned int pidx = 0;
248
249         /*
250          * SVC_POOL_NONE happens in a pure client when
251          * lockd is brought up, so silently treat it the
252          * same as SVC_POOL_GLOBAL.
253          */
254
255         switch (m->mode) {
256         case SVC_POOL_PERCPU:
257                 pidx = m->to_pool[cpu];
258                 break;
259         case SVC_POOL_PERNODE:
260                 pidx = m->to_pool[cpu_to_node(cpu)];
261                 break;
262         }
263         return &serv->sv_pools[pidx % serv->sv_nrpools];
264 }
265
266
267 /*
268  * Create an RPC service
269  */
270 static struct svc_serv *
271 __svc_create(struct svc_program *prog, unsigned int bufsize, int npools,
272            void (*shutdown)(struct svc_serv *serv))
273 {
274         struct svc_serv *serv;
275         int vers;
276         unsigned int xdrsize;
277         unsigned int i;
278
279         if (!(serv = kzalloc(sizeof(*serv), GFP_KERNEL)))
280                 return NULL;
281         serv->sv_name      = prog->pg_name;
282         serv->sv_program   = prog;
283         serv->sv_nrthreads = 1;
284         serv->sv_stats     = prog->pg_stats;
285         serv->sv_bufsz     = bufsize? bufsize : 4096;
286         serv->sv_shutdown  = shutdown;
287         xdrsize = 0;
288         while (prog) {
289                 prog->pg_lovers = prog->pg_nvers-1;
290                 for (vers=0; vers<prog->pg_nvers ; vers++)
291                         if (prog->pg_vers[vers]) {
292                                 prog->pg_hivers = vers;
293                                 if (prog->pg_lovers > vers)
294                                         prog->pg_lovers = vers;
295                                 if (prog->pg_vers[vers]->vs_xdrsize > xdrsize)
296                                         xdrsize = prog->pg_vers[vers]->vs_xdrsize;
297                         }
298                 prog = prog->pg_next;
299         }
300         serv->sv_xdrsize   = xdrsize;
301         INIT_LIST_HEAD(&serv->sv_tempsocks);
302         INIT_LIST_HEAD(&serv->sv_permsocks);
303         init_timer(&serv->sv_temptimer);
304         spin_lock_init(&serv->sv_lock);
305
306         serv->sv_nrpools = npools;
307         serv->sv_pools =
308                 kcalloc(sizeof(struct svc_pool), serv->sv_nrpools,
309                         GFP_KERNEL);
310         if (!serv->sv_pools) {
311                 kfree(serv);
312                 return NULL;
313         }
314
315         for (i = 0; i < serv->sv_nrpools; i++) {
316                 struct svc_pool *pool = &serv->sv_pools[i];
317
318                 dprintk("initialising pool %u for %s\n",
319                                 i, serv->sv_name);
320
321                 pool->sp_id = i;
322                 INIT_LIST_HEAD(&pool->sp_threads);
323                 INIT_LIST_HEAD(&pool->sp_sockets);
324                 INIT_LIST_HEAD(&pool->sp_all_threads);
325                 spin_lock_init(&pool->sp_lock);
326         }
327
328
329         /* Remove any stale portmap registrations */
330         svc_register(serv, 0, 0);
331
332         return serv;
333 }
334
335 struct svc_serv *
336 svc_create(struct svc_program *prog, unsigned int bufsize,
337                 void (*shutdown)(struct svc_serv *serv))
338 {
339         return __svc_create(prog, bufsize, /*npools*/1, shutdown);
340 }
341
342 struct svc_serv *
343 svc_create_pooled(struct svc_program *prog, unsigned int bufsize,
344                 void (*shutdown)(struct svc_serv *serv),
345                   svc_thread_fn func, int sig, struct module *mod)
346 {
347         struct svc_serv *serv;
348         unsigned int npools = svc_pool_map_init();
349
350         serv = __svc_create(prog, bufsize, npools, shutdown);
351
352         if (serv != NULL) {
353                 serv->sv_function = func;
354                 serv->sv_kill_signal = sig;
355                 serv->sv_module = mod;
356         }
357
358         return serv;
359 }
360
361 /*
362  * Destroy an RPC service.  Should be called with the BKL held
363  */
364 void
365 svc_destroy(struct svc_serv *serv)
366 {
367         struct svc_sock *svsk;
368
369         dprintk("RPC: svc_destroy(%s, %d)\n",
370                                 serv->sv_program->pg_name,
371                                 serv->sv_nrthreads);
372
373         if (serv->sv_nrthreads) {
374                 if (--(serv->sv_nrthreads) != 0) {
375                         svc_sock_update_bufs(serv);
376                         return;
377                 }
378         } else
379                 printk("svc_destroy: no threads for serv=%p!\n", serv);
380
381         del_timer_sync(&serv->sv_temptimer);
382
383         while (!list_empty(&serv->sv_tempsocks)) {
384                 svsk = list_entry(serv->sv_tempsocks.next,
385                                   struct svc_sock,
386                                   sk_list);
387                 svc_delete_socket(svsk);
388         }
389         if (serv->sv_shutdown)
390                 serv->sv_shutdown(serv);
391
392         while (!list_empty(&serv->sv_permsocks)) {
393                 svsk = list_entry(serv->sv_permsocks.next,
394                                   struct svc_sock,
395                                   sk_list);
396                 svc_delete_socket(svsk);
397         }
398         
399         cache_clean_deferred(serv);
400
401         /* Unregister service with the portmapper */
402         svc_register(serv, 0, 0);
403         kfree(serv->sv_pools);
404         kfree(serv);
405 }
406
407 /*
408  * Allocate an RPC server's buffer space.
409  * We allocate pages and place them in rq_argpages.
410  */
411 static int
412 svc_init_buffer(struct svc_rqst *rqstp, unsigned int size)
413 {
414         int pages;
415         int arghi;
416         
417         if (size > RPCSVC_MAXPAYLOAD)
418                 size = RPCSVC_MAXPAYLOAD;
419         pages = 2 + (size+ PAGE_SIZE -1) / PAGE_SIZE;
420         rqstp->rq_argused = 0;
421         rqstp->rq_resused = 0;
422         arghi = 0;
423         BUG_ON(pages > RPCSVC_MAXPAGES);
424         while (pages) {
425                 struct page *p = alloc_page(GFP_KERNEL);
426                 if (!p)
427                         break;
428                 rqstp->rq_argpages[arghi++] = p;
429                 pages--;
430         }
431         rqstp->rq_arghi = arghi;
432         return ! pages;
433 }
434
435 /*
436  * Release an RPC server buffer
437  */
438 static void
439 svc_release_buffer(struct svc_rqst *rqstp)
440 {
441         while (rqstp->rq_arghi)
442                 put_page(rqstp->rq_argpages[--rqstp->rq_arghi]);
443         while (rqstp->rq_resused) {
444                 if (rqstp->rq_respages[--rqstp->rq_resused] == NULL)
445                         continue;
446                 put_page(rqstp->rq_respages[rqstp->rq_resused]);
447         }
448         rqstp->rq_argused = 0;
449 }
450
451 /*
452  * Create a thread in the given pool.  Caller must hold BKL.
453  * On a NUMA or SMP machine, with a multi-pool serv, the thread
454  * will be restricted to run on the cpus belonging to the pool.
455  */
456 static int
457 __svc_create_thread(svc_thread_fn func, struct svc_serv *serv,
458                     struct svc_pool *pool)
459 {
460         struct svc_rqst *rqstp;
461         int             error = -ENOMEM;
462         int             have_oldmask = 0;
463         cpumask_t       oldmask;
464
465         rqstp = kzalloc(sizeof(*rqstp), GFP_KERNEL);
466         if (!rqstp)
467                 goto out;
468
469         init_waitqueue_head(&rqstp->rq_wait);
470
471         if (!(rqstp->rq_argp = kmalloc(serv->sv_xdrsize, GFP_KERNEL))
472          || !(rqstp->rq_resp = kmalloc(serv->sv_xdrsize, GFP_KERNEL))
473          || !svc_init_buffer(rqstp, serv->sv_bufsz))
474                 goto out_thread;
475
476         serv->sv_nrthreads++;
477         spin_lock_bh(&pool->sp_lock);
478         pool->sp_nrthreads++;
479         list_add(&rqstp->rq_all, &pool->sp_all_threads);
480         spin_unlock_bh(&pool->sp_lock);
481         rqstp->rq_server = serv;
482         rqstp->rq_pool = pool;
483
484         if (serv->sv_nrpools > 1)
485                 have_oldmask = svc_pool_map_set_cpumask(pool->sp_id, &oldmask);
486
487         error = kernel_thread((int (*)(void *)) func, rqstp, 0);
488
489         if (have_oldmask)
490                 set_cpus_allowed(current, oldmask);
491
492         if (error < 0)
493                 goto out_thread;
494         svc_sock_update_bufs(serv);
495         error = 0;
496 out:
497         return error;
498
499 out_thread:
500         svc_exit_thread(rqstp);
501         goto out;
502 }
503
504 /*
505  * Create a thread in the default pool.  Caller must hold BKL.
506  */
507 int
508 svc_create_thread(svc_thread_fn func, struct svc_serv *serv)
509 {
510         return __svc_create_thread(func, serv, &serv->sv_pools[0]);
511 }
512
513 /*
514  * Choose a pool in which to create a new thread, for svc_set_num_threads
515  */
516 static inline struct svc_pool *
517 choose_pool(struct svc_serv *serv, struct svc_pool *pool, unsigned int *state)
518 {
519         if (pool != NULL)
520                 return pool;
521
522         return &serv->sv_pools[(*state)++ % serv->sv_nrpools];
523 }
524
525 /*
526  * Choose a thread to kill, for svc_set_num_threads
527  */
528 static inline struct task_struct *
529 choose_victim(struct svc_serv *serv, struct svc_pool *pool, unsigned int *state)
530 {
531         unsigned int i;
532         struct task_struct *task = NULL;
533
534         if (pool != NULL) {
535                 spin_lock_bh(&pool->sp_lock);
536         } else {
537                 /* choose a pool in round-robin fashion */
538                 for (i = 0; i < serv->sv_nrpools; i++) {
539                         pool = &serv->sv_pools[--(*state) % serv->sv_nrpools];
540                         spin_lock_bh(&pool->sp_lock);
541                         if (!list_empty(&pool->sp_all_threads))
542                                 goto found_pool;
543                         spin_unlock_bh(&pool->sp_lock);
544                 }
545                 return NULL;
546         }
547
548 found_pool:
549         if (!list_empty(&pool->sp_all_threads)) {
550                 struct svc_rqst *rqstp;
551
552                 /*
553                  * Remove from the pool->sp_all_threads list
554                  * so we don't try to kill it again.
555                  */
556                 rqstp = list_entry(pool->sp_all_threads.next, struct svc_rqst, rq_all);
557                 list_del_init(&rqstp->rq_all);
558                 task = rqstp->rq_task;
559         }
560         spin_unlock_bh(&pool->sp_lock);
561
562         return task;
563 }
564
565 /*
566  * Create or destroy enough new threads to make the number
567  * of threads the given number.  If `pool' is non-NULL, applies
568  * only to threads in that pool, otherwise round-robins between
569  * all pools.  Must be called with a svc_get() reference and
570  * the BKL held.
571  *
572  * Destroying threads relies on the service threads filling in
573  * rqstp->rq_task, which only the nfs ones do.  Assumes the serv
574  * has been created using svc_create_pooled().
575  *
576  * Based on code that used to be in nfsd_svc() but tweaked
577  * to be pool-aware.
578  */
579 int
580 svc_set_num_threads(struct svc_serv *serv, struct svc_pool *pool, int nrservs)
581 {
582         struct task_struct *victim;
583         int error = 0;
584         unsigned int state = serv->sv_nrthreads-1;
585
586         if (pool == NULL) {
587                 /* The -1 assumes caller has done a svc_get() */
588                 nrservs -= (serv->sv_nrthreads-1);
589         } else {
590                 spin_lock_bh(&pool->sp_lock);
591                 nrservs -= pool->sp_nrthreads;
592                 spin_unlock_bh(&pool->sp_lock);
593         }
594
595         /* create new threads */
596         while (nrservs > 0) {
597                 nrservs--;
598                 __module_get(serv->sv_module);
599                 error = __svc_create_thread(serv->sv_function, serv,
600                                             choose_pool(serv, pool, &state));
601                 if (error < 0) {
602                         module_put(serv->sv_module);
603                         break;
604                 }
605         }
606         /* destroy old threads */
607         while (nrservs < 0 &&
608                (victim = choose_victim(serv, pool, &state)) != NULL) {
609                 send_sig(serv->sv_kill_signal, victim, 1);
610                 nrservs++;
611         }
612
613         return error;
614 }
615
616 /*
617  * Called from a server thread as it's exiting.  Caller must hold BKL.
618  */
619 void
620 svc_exit_thread(struct svc_rqst *rqstp)
621 {
622         struct svc_serv *serv = rqstp->rq_server;
623         struct svc_pool *pool = rqstp->rq_pool;
624
625         svc_release_buffer(rqstp);
626         kfree(rqstp->rq_resp);
627         kfree(rqstp->rq_argp);
628         kfree(rqstp->rq_auth_data);
629
630         spin_lock_bh(&pool->sp_lock);
631         pool->sp_nrthreads--;
632         list_del(&rqstp->rq_all);
633         spin_unlock_bh(&pool->sp_lock);
634
635         kfree(rqstp);
636
637         /* Release the server */
638         if (serv)
639                 svc_destroy(serv);
640 }
641
642 /*
643  * Register an RPC service with the local portmapper.
644  * To unregister a service, call this routine with 
645  * proto and port == 0.
646  */
647 int
648 svc_register(struct svc_serv *serv, int proto, unsigned short port)
649 {
650         struct svc_program      *progp;
651         unsigned long           flags;
652         int                     i, error = 0, dummy;
653
654         progp = serv->sv_program;
655
656         dprintk("RPC: svc_register(%s, %s, %d)\n",
657                 progp->pg_name, proto == IPPROTO_UDP? "udp" : "tcp", port);
658
659         if (!port)
660                 clear_thread_flag(TIF_SIGPENDING);
661
662         for (i = 0; i < progp->pg_nvers; i++) {
663                 if (progp->pg_vers[i] == NULL)
664                         continue;
665                 error = rpc_register(progp->pg_prog, i, proto, port, &dummy);
666                 if (error < 0)
667                         break;
668                 if (port && !dummy) {
669                         error = -EACCES;
670                         break;
671                 }
672         }
673
674         if (!port) {
675                 spin_lock_irqsave(&current->sighand->siglock, flags);
676                 recalc_sigpending();
677                 spin_unlock_irqrestore(&current->sighand->siglock, flags);
678         }
679
680         return error;
681 }
682
683 /*
684  * Process the RPC request.
685  */
686 int
687 svc_process(struct svc_rqst *rqstp)
688 {
689         struct svc_program      *progp;
690         struct svc_version      *versp = NULL;  /* compiler food */
691         struct svc_procedure    *procp = NULL;
692         struct kvec *           argv = &rqstp->rq_arg.head[0];
693         struct kvec *           resv = &rqstp->rq_res.head[0];
694         struct svc_serv         *serv = rqstp->rq_server;
695         kxdrproc_t              xdr;
696         __be32                  *statp;
697         u32                     dir, prog, vers, proc;
698         __be32                  auth_stat, rpc_stat;
699         int                     auth_res;
700         __be32                  *accept_statp;
701
702         rpc_stat = rpc_success;
703
704         if (argv->iov_len < 6*4)
705                 goto err_short_len;
706
707         /* setup response xdr_buf.
708          * Initially it has just one page 
709          */
710         svc_take_page(rqstp); /* must succeed */
711         resv->iov_base = page_address(rqstp->rq_respages[0]);
712         resv->iov_len = 0;
713         rqstp->rq_res.pages = rqstp->rq_respages+1;
714         rqstp->rq_res.len = 0;
715         rqstp->rq_res.page_base = 0;
716         rqstp->rq_res.page_len = 0;
717         rqstp->rq_res.buflen = PAGE_SIZE;
718         rqstp->rq_res.tail[0].iov_base = NULL;
719         rqstp->rq_res.tail[0].iov_len = 0;
720         /* Will be turned off only in gss privacy case: */
721         rqstp->rq_sendfile_ok = 1;
722         /* tcp needs a space for the record length... */
723         if (rqstp->rq_prot == IPPROTO_TCP)
724                 svc_putnl(resv, 0);
725
726         rqstp->rq_xid = svc_getu32(argv);
727         svc_putu32(resv, rqstp->rq_xid);
728
729         dir  = svc_getnl(argv);
730         vers = svc_getnl(argv);
731
732         /* First words of reply: */
733         svc_putnl(resv, 1);             /* REPLY */
734
735         if (dir != 0)           /* direction != CALL */
736                 goto err_bad_dir;
737         if (vers != 2)          /* RPC version number */
738                 goto err_bad_rpc;
739
740         /* Save position in case we later decide to reject: */
741         accept_statp = resv->iov_base + resv->iov_len;
742
743         svc_putnl(resv, 0);             /* ACCEPT */
744
745         rqstp->rq_prog = prog = svc_getnl(argv);        /* program number */
746         rqstp->rq_vers = vers = svc_getnl(argv);        /* version number */
747         rqstp->rq_proc = proc = svc_getnl(argv);        /* procedure number */
748
749         progp = serv->sv_program;
750
751         for (progp = serv->sv_program; progp; progp = progp->pg_next)
752                 if (prog == progp->pg_prog)
753                         break;
754
755         /*
756          * Decode auth data, and add verifier to reply buffer.
757          * We do this before anything else in order to get a decent
758          * auth verifier.
759          */
760         auth_res = svc_authenticate(rqstp, &auth_stat);
761         /* Also give the program a chance to reject this call: */
762         if (auth_res == SVC_OK && progp) {
763                 auth_stat = rpc_autherr_badcred;
764                 auth_res = progp->pg_authenticate(rqstp);
765         }
766         switch (auth_res) {
767         case SVC_OK:
768                 break;
769         case SVC_GARBAGE:
770                 rpc_stat = rpc_garbage_args;
771                 goto err_bad;
772         case SVC_SYSERR:
773                 rpc_stat = rpc_system_err;
774                 goto err_bad;
775         case SVC_DENIED:
776                 goto err_bad_auth;
777         case SVC_DROP:
778                 goto dropit;
779         case SVC_COMPLETE:
780                 goto sendit;
781         }
782
783         if (progp == NULL)
784                 goto err_bad_prog;
785
786         if (vers >= progp->pg_nvers ||
787           !(versp = progp->pg_vers[vers]))
788                 goto err_bad_vers;
789
790         procp = versp->vs_proc + proc;
791         if (proc >= versp->vs_nproc || !procp->pc_func)
792                 goto err_bad_proc;
793         rqstp->rq_server   = serv;
794         rqstp->rq_procinfo = procp;
795
796         /* Syntactic check complete */
797         serv->sv_stats->rpccnt++;
798
799         /* Build the reply header. */
800         statp = resv->iov_base +resv->iov_len;
801         svc_putnl(resv, RPC_SUCCESS);
802
803         /* Bump per-procedure stats counter */
804         procp->pc_count++;
805
806         /* Initialize storage for argp and resp */
807         memset(rqstp->rq_argp, 0, procp->pc_argsize);
808         memset(rqstp->rq_resp, 0, procp->pc_ressize);
809
810         /* un-reserve some of the out-queue now that we have a 
811          * better idea of reply size
812          */
813         if (procp->pc_xdrressize)
814                 svc_reserve(rqstp, procp->pc_xdrressize<<2);
815
816         /* Call the function that processes the request. */
817         if (!versp->vs_dispatch) {
818                 /* Decode arguments */
819                 xdr = procp->pc_decode;
820                 if (xdr && !xdr(rqstp, argv->iov_base, rqstp->rq_argp))
821                         goto err_garbage;
822
823                 *statp = procp->pc_func(rqstp, rqstp->rq_argp, rqstp->rq_resp);
824
825                 /* Encode reply */
826                 if (*statp == rpc_success && (xdr = procp->pc_encode)
827                  && !xdr(rqstp, resv->iov_base+resv->iov_len, rqstp->rq_resp)) {
828                         dprintk("svc: failed to encode reply\n");
829                         /* serv->sv_stats->rpcsystemerr++; */
830                         *statp = rpc_system_err;
831                 }
832         } else {
833                 dprintk("svc: calling dispatcher\n");
834                 if (!versp->vs_dispatch(rqstp, statp)) {
835                         /* Release reply info */
836                         if (procp->pc_release)
837                                 procp->pc_release(rqstp, NULL, rqstp->rq_resp);
838                         goto dropit;
839                 }
840         }
841
842         /* Check RPC status result */
843         if (*statp != rpc_success)
844                 resv->iov_len = ((void*)statp)  - resv->iov_base + 4;
845
846         /* Release reply info */
847         if (procp->pc_release)
848                 procp->pc_release(rqstp, NULL, rqstp->rq_resp);
849
850         if (procp->pc_encode == NULL)
851                 goto dropit;
852
853  sendit:
854         if (svc_authorise(rqstp))
855                 goto dropit;
856         return svc_send(rqstp);
857
858  dropit:
859         svc_authorise(rqstp);   /* doesn't hurt to call this twice */
860         dprintk("svc: svc_process dropit\n");
861         svc_drop(rqstp);
862         return 0;
863
864 err_short_len:
865 #ifdef RPC_PARANOIA
866         printk("svc: short len %Zd, dropping request\n", argv->iov_len);
867 #endif
868         goto dropit;                    /* drop request */
869
870 err_bad_dir:
871 #ifdef RPC_PARANOIA
872         printk("svc: bad direction %d, dropping request\n", dir);
873 #endif
874         serv->sv_stats->rpcbadfmt++;
875         goto dropit;                    /* drop request */
876
877 err_bad_rpc:
878         serv->sv_stats->rpcbadfmt++;
879         svc_putnl(resv, 1);     /* REJECT */
880         svc_putnl(resv, 0);     /* RPC_MISMATCH */
881         svc_putnl(resv, 2);     /* Only RPCv2 supported */
882         svc_putnl(resv, 2);
883         goto sendit;
884
885 err_bad_auth:
886         dprintk("svc: authentication failed (%d)\n", ntohl(auth_stat));
887         serv->sv_stats->rpcbadauth++;
888         /* Restore write pointer to location of accept status: */
889         xdr_ressize_check(rqstp, accept_statp);
890         svc_putnl(resv, 1);     /* REJECT */
891         svc_putnl(resv, 1);     /* AUTH_ERROR */
892         svc_putnl(resv, ntohl(auth_stat));      /* status */
893         goto sendit;
894
895 err_bad_prog:
896         dprintk("svc: unknown program %d\n", prog);
897         serv->sv_stats->rpcbadfmt++;
898         svc_putnl(resv, RPC_PROG_UNAVAIL);
899         goto sendit;
900
901 err_bad_vers:
902 #ifdef RPC_PARANOIA
903         printk("svc: unknown version (%d)\n", vers);
904 #endif
905         serv->sv_stats->rpcbadfmt++;
906         svc_putnl(resv, RPC_PROG_MISMATCH);
907         svc_putnl(resv, progp->pg_lovers);
908         svc_putnl(resv, progp->pg_hivers);
909         goto sendit;
910
911 err_bad_proc:
912 #ifdef RPC_PARANOIA
913         printk("svc: unknown procedure (%d)\n", proc);
914 #endif
915         serv->sv_stats->rpcbadfmt++;
916         svc_putnl(resv, RPC_PROC_UNAVAIL);
917         goto sendit;
918
919 err_garbage:
920 #ifdef RPC_PARANOIA
921         printk("svc: failed to decode args\n");
922 #endif
923         rpc_stat = rpc_garbage_args;
924 err_bad:
925         serv->sv_stats->rpcbadfmt++;
926         svc_putnl(resv, ntohl(rpc_stat));
927         goto sendit;
928 }