|
183 | 183 | llama_memory_i_p = NewType("llama_memory_i_p", int)
|
184 | 184 | llama_memory_i_p_ctypes = ctypes.c_void_p
|
185 | 185 |
|
186 |
| -# // DEPRECATED (use llama_memory instead) |
187 |
| -llama_kv_cache_p = NewType("llama_kv_cache_p", int) |
188 |
| -llama_kv_cache_p_ctypes = ctypes.c_void_p |
189 |
| - |
190 | 186 | # typedef int32_t llama_pos;
|
191 | 187 | llama_pos = ctypes.c_int32
|
192 | 188 | # typedef int32_t llama_token;
|
@@ -1391,8 +1387,6 @@ def llama_n_seq_max(ctx: llama_context_p, /) -> int:
|
1391 | 1387 | ...
|
1392 | 1388 |
|
1393 | 1389 |
|
1394 |
| - |
1395 |
| - |
1396 | 1390 | # DEPRECATED(LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model), "use llama_model_n_ctx_train instead");
|
1397 | 1391 | @ctypes_function("llama_n_ctx_train", [llama_model_p_ctypes], ctypes.c_int32)
|
1398 | 1392 | def llama_n_ctx_train(model: llama_model_p, /) -> int:
|
@@ -1428,11 +1422,6 @@ def llama_n_vocab(model: llama_vocab_p, /) -> int:
|
1428 | 1422 | def llama_get_model(ctx: llama_context_p, /) -> Optional[llama_model_p]:
|
1429 | 1423 | ...
|
1430 | 1424 |
|
1431 |
| -# DEPRECATED(LLAMA_API struct llama_kv_cache * llama_get_kv_self(struct llama_context * ctx), "use llama_get_memory instead"); |
1432 |
| -@ctypes_function("llama_get_kv_self", [llama_context_p_ctypes], llama_kv_cache_p_ctypes) |
1433 |
| -def llama_get_kv_self(ctx: llama_context_p, /) -> Optional[llama_kv_cache_p]: |
1434 |
| - "use llama_get_memory instead" |
1435 |
| - ... |
1436 | 1425 |
|
1437 | 1426 | # LLAMA_API llama_memory_t llama_get_memory (const struct llama_context * ctx);
|
1438 | 1427 | @ctypes_function("llama_get_memory", [llama_context_p_ctypes], llama_memory_i_p_ctypes)
|
|
0 commit comments