Merge ../linux-2.6-watchdog-mm
[linux-2.6] / crypto / internal.h
1 /*
2  * Cryptographic API.
3  *
4  * Copyright (c) 2002 James Morris <jmorris@intercode.com.au>
5  * Copyright (c) 2005 Herbert Xu <herbert@gondor.apana.org.au>
6  *
7  * This program is free software; you can redistribute it and/or modify it
8  * under the terms of the GNU General Public License as published by the Free
9  * Software Foundation; either version 2 of the License, or (at your option) 
10  * any later version.
11  *
12  */
13 #ifndef _CRYPTO_INTERNAL_H
14 #define _CRYPTO_INTERNAL_H
15
16 #include <crypto/algapi.h>
17 #include <linux/completion.h>
18 #include <linux/mm.h>
19 #include <linux/highmem.h>
20 #include <linux/interrupt.h>
21 #include <linux/init.h>
22 #include <linux/list.h>
23 #include <linux/module.h>
24 #include <linux/kernel.h>
25 #include <linux/notifier.h>
26 #include <linux/rwsem.h>
27 #include <linux/slab.h>
28 #include <asm/kmap_types.h>
29
30 /* Crypto notification events. */
31 enum {
32         CRYPTO_MSG_ALG_REQUEST,
33         CRYPTO_MSG_ALG_REGISTER,
34         CRYPTO_MSG_ALG_UNREGISTER,
35         CRYPTO_MSG_TMPL_REGISTER,
36         CRYPTO_MSG_TMPL_UNREGISTER,
37 };
38
39 struct crypto_instance;
40 struct crypto_template;
41
42 struct crypto_larval {
43         struct crypto_alg alg;
44         struct crypto_alg *adult;
45         struct completion completion;
46         u32 mask;
47 };
48
49 extern struct list_head crypto_alg_list;
50 extern struct rw_semaphore crypto_alg_sem;
51 extern struct blocking_notifier_head crypto_chain;
52
53 extern enum km_type crypto_km_types[];
54
55 static inline enum km_type crypto_kmap_type(int out)
56 {
57         return crypto_km_types[(in_softirq() ? 2 : 0) + out];
58 }
59
60 static inline void *crypto_kmap(struct page *page, int out)
61 {
62         return kmap_atomic(page, crypto_kmap_type(out));
63 }
64
65 static inline void crypto_kunmap(void *vaddr, int out)
66 {
67         kunmap_atomic(vaddr, crypto_kmap_type(out));
68 }
69
70 static inline void crypto_yield(u32 flags)
71 {
72         if (flags & CRYPTO_TFM_REQ_MAY_SLEEP)
73                 cond_resched();
74 }
75
76 #ifdef CONFIG_PROC_FS
77 void __init crypto_init_proc(void);
78 void __exit crypto_exit_proc(void);
79 #else
80 static inline void crypto_init_proc(void)
81 { }
82 static inline void crypto_exit_proc(void)
83 { }
84 #endif
85
86 static inline unsigned int crypto_digest_ctxsize(struct crypto_alg *alg,
87                                                  int flags)
88 {
89         unsigned int len = alg->cra_ctxsize;
90
91         if (alg->cra_alignmask) {
92                 len = ALIGN(len, (unsigned long)alg->cra_alignmask + 1);
93                 len += alg->cra_digest.dia_digestsize;
94         }
95
96         return len;
97 }
98
99 static inline unsigned int crypto_cipher_ctxsize(struct crypto_alg *alg,
100                                                  int flags)
101 {
102         unsigned int len = alg->cra_ctxsize;
103         
104         switch (flags & CRYPTO_TFM_MODE_MASK) {
105         case CRYPTO_TFM_MODE_CBC:
106                 len = ALIGN(len, (unsigned long)alg->cra_alignmask + 1);
107                 len += alg->cra_blocksize;
108                 break;
109         }
110
111         return len;
112 }
113
114 static inline unsigned int crypto_compress_ctxsize(struct crypto_alg *alg,
115                                                    int flags)
116 {
117         return alg->cra_ctxsize;
118 }
119
120 struct crypto_alg *crypto_mod_get(struct crypto_alg *alg);
121 struct crypto_alg *__crypto_alg_lookup(const char *name, u32 type, u32 mask);
122 struct crypto_alg *crypto_alg_mod_lookup(const char *name, u32 type, u32 mask);
123
124 int crypto_init_digest_flags(struct crypto_tfm *tfm, u32 flags);
125 int crypto_init_cipher_flags(struct crypto_tfm *tfm, u32 flags);
126 int crypto_init_compress_flags(struct crypto_tfm *tfm, u32 flags);
127
128 int crypto_init_digest_ops(struct crypto_tfm *tfm);
129 int crypto_init_cipher_ops(struct crypto_tfm *tfm);
130 int crypto_init_compress_ops(struct crypto_tfm *tfm);
131
132 void crypto_exit_digest_ops(struct crypto_tfm *tfm);
133 void crypto_exit_cipher_ops(struct crypto_tfm *tfm);
134 void crypto_exit_compress_ops(struct crypto_tfm *tfm);
135
136 void crypto_larval_error(const char *name, u32 type, u32 mask);
137
138 void crypto_shoot_alg(struct crypto_alg *alg);
139 struct crypto_tfm *__crypto_alloc_tfm(struct crypto_alg *alg, u32 flags);
140
141 int crypto_register_instance(struct crypto_template *tmpl,
142                              struct crypto_instance *inst);
143
144 int crypto_register_notifier(struct notifier_block *nb);
145 int crypto_unregister_notifier(struct notifier_block *nb);
146
147 static inline void crypto_alg_put(struct crypto_alg *alg)
148 {
149         if (atomic_dec_and_test(&alg->cra_refcnt) && alg->cra_destroy)
150                 alg->cra_destroy(alg);
151 }
152
153 static inline int crypto_tmpl_get(struct crypto_template *tmpl)
154 {
155         return try_module_get(tmpl->module);
156 }
157
158 static inline void crypto_tmpl_put(struct crypto_template *tmpl)
159 {
160         module_put(tmpl->module);
161 }
162
163 static inline int crypto_is_larval(struct crypto_alg *alg)
164 {
165         return alg->cra_flags & CRYPTO_ALG_LARVAL;
166 }
167
168 static inline int crypto_is_dead(struct crypto_alg *alg)
169 {
170         return alg->cra_flags & CRYPTO_ALG_DEAD;
171 }
172
173 static inline int crypto_is_moribund(struct crypto_alg *alg)
174 {
175         return alg->cra_flags & (CRYPTO_ALG_DEAD | CRYPTO_ALG_DYING);
176 }
177
178 static inline int crypto_notify(unsigned long val, void *v)
179 {
180         return blocking_notifier_call_chain(&crypto_chain, val, v);
181 }
182
183 #endif  /* _CRYPTO_INTERNAL_H */
184