Skip to content

Commit df66fb0

Browse files
committed
Sync llama.cpp API 20250822
1 parent 0b4c721 commit df66fb0

File tree

1 file changed

+0
-11
lines changed

1 file changed

+0
-11
lines changed

llama_cpp/llama_cpp.py

Lines changed: 0 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -183,10 +183,6 @@
183183
llama_memory_i_p = NewType("llama_memory_i_p", int)
184184
llama_memory_i_p_ctypes = ctypes.c_void_p
185185

186-
# // DEPRECATED (use llama_memory instead)
187-
llama_kv_cache_p = NewType("llama_kv_cache_p", int)
188-
llama_kv_cache_p_ctypes = ctypes.c_void_p
189-
190186
# typedef int32_t llama_pos;
191187
llama_pos = ctypes.c_int32
192188
# typedef int32_t llama_token;
@@ -1391,8 +1387,6 @@ def llama_n_seq_max(ctx: llama_context_p, /) -> int:
13911387
...
13921388

13931389

1394-
1395-
13961390
# DEPRECATED(LLAMA_API int32_t llama_n_ctx_train(const struct llama_model * model), "use llama_model_n_ctx_train instead");
13971391
@ctypes_function("llama_n_ctx_train", [llama_model_p_ctypes], ctypes.c_int32)
13981392
def llama_n_ctx_train(model: llama_model_p, /) -> int:
@@ -1428,11 +1422,6 @@ def llama_n_vocab(model: llama_vocab_p, /) -> int:
14281422
def llama_get_model(ctx: llama_context_p, /) -> Optional[llama_model_p]:
14291423
...
14301424

1431-
# DEPRECATED(LLAMA_API struct llama_kv_cache * llama_get_kv_self(struct llama_context * ctx), "use llama_get_memory instead");
1432-
@ctypes_function("llama_get_kv_self", [llama_context_p_ctypes], llama_kv_cache_p_ctypes)
1433-
def llama_get_kv_self(ctx: llama_context_p, /) -> Optional[llama_kv_cache_p]:
1434-
"use llama_get_memory instead"
1435-
...
14361425

14371426
# LLAMA_API llama_memory_t llama_get_memory (const struct llama_context * ctx);
14381427
@ctypes_function("llama_get_memory", [llama_context_p_ctypes], llama_memory_i_p_ctypes)

0 commit comments

Comments
 (0)