Compare commits
2 Commits
ece872fdeb
...
9965ca8816
| Author | SHA1 | Date | |
|---|---|---|---|
| 9965ca8816 | |||
| dce002cc24 |
@@ -7,12 +7,12 @@
|
|||||||
vulkanSupport = true;
|
vulkanSupport = true;
|
||||||
}).overrideAttrs
|
}).overrideAttrs
|
||||||
(oldAttrs: rec {
|
(oldAttrs: rec {
|
||||||
version = "7501";
|
version = "7562";
|
||||||
src = pkgs.fetchFromGitHub {
|
src = pkgs.fetchFromGitHub {
|
||||||
owner = "ggml-org";
|
owner = "ggml-org";
|
||||||
repo = "llama.cpp";
|
repo = "llama.cpp";
|
||||||
tag = "b${version}";
|
tag = "b${version}";
|
||||||
hash = "sha256-+bHlQvRUKSoDcULOWqxXWHuYupDmJQuQPg8A7iwsmMY=";
|
hash = "sha256-yuTPj41B3YitRPrD6yV25ilrIxVKebPGSqdJMpVhUDg=";
|
||||||
leaveDotGit = true;
|
leaveDotGit = true;
|
||||||
postFetch = ''
|
postFetch = ''
|
||||||
git -C "$out" rev-parse --short HEAD > $out/COMMIT
|
git -C "$out" rev-parse --short HEAD > $out/COMMIT
|
||||||
@@ -22,7 +22,6 @@
|
|||||||
|
|
||||||
# Auto CPU Optimizations
|
# Auto CPU Optimizations
|
||||||
cmakeFlags = (oldAttrs.cmakeFlags or [ ]) ++ [
|
cmakeFlags = (oldAttrs.cmakeFlags or [ ]) ++ [
|
||||||
"-DGGML_NATIVE=ON"
|
|
||||||
"-DGGML_CUDA_ENABLE_UNIFIED_MEMORY=1"
|
"-DGGML_CUDA_ENABLE_UNIFIED_MEMORY=1"
|
||||||
"-DCMAKE_CUDA_ARCHITECTURES=61;86" # GTX 1070 / GTX 1080ti / RTX 3090
|
"-DCMAKE_CUDA_ARCHITECTURES=61;86" # GTX 1070 / GTX 1080ti / RTX 3090
|
||||||
];
|
];
|
||||||
|
|||||||
@@ -115,7 +115,22 @@ in
|
|||||||
cmd = ''
|
cmd = ''
|
||||||
${pkgs.reichard.llama-cpp}/bin/llama-server \
|
${pkgs.reichard.llama-cpp}/bin/llama-server \
|
||||||
--port ''${PORT} \
|
--port ''${PORT} \
|
||||||
-m /mnt/ssd/Models/GPT-OSS/gpt-oss-20b-heretic-v2.i1-MXFP4_MOE.gguf \
|
-m /mnt/ssd/Models/GPT-OSS/gpt-oss-20b-F16.gguf \
|
||||||
|
-c 131072 \
|
||||||
|
--temp 1.0 \
|
||||||
|
--top-p 1.0 \
|
||||||
|
--top-k 40 \
|
||||||
|
-dev CUDA0
|
||||||
|
'';
|
||||||
|
};
|
||||||
|
|
||||||
|
# https://huggingface.co/mradermacher/GPT-OSS-Cybersecurity-20B-Merged-i1-GGUF/tree/main
|
||||||
|
"gpt-oss-csec-20b-thinking" = {
|
||||||
|
name = "GPT OSS CSEC (20B) - Thinking";
|
||||||
|
cmd = ''
|
||||||
|
${pkgs.reichard.llama-cpp}/bin/llama-server \
|
||||||
|
--port ''${PORT} \
|
||||||
|
-m /mnt/ssd/Models/GPT-OSS/GPT-OSS-Cybersecurity-20B-Merged.i1-MXFP4_MOE.gguf \
|
||||||
-c 131072 \
|
-c 131072 \
|
||||||
--temp 1.0 \
|
--temp 1.0 \
|
||||||
--top-p 1.0 \
|
--top-p 1.0 \
|
||||||
@@ -141,23 +156,6 @@ in
|
|||||||
-ctv q8_0 \
|
-ctv q8_0 \
|
||||||
-fit off
|
-fit off
|
||||||
'';
|
'';
|
||||||
|
|
||||||
# cmd = ''
|
|
||||||
# ${pkgs.reichard.llama-cpp}/bin/llama-server \
|
|
||||||
# --port ''${PORT} \
|
|
||||||
# -m /mnt/ssd/Models/Qwen3/Qwen3-Next-80B-A3B-Instruct-UD-Q4_K_XL.gguf \
|
|
||||||
# -c 131072 \
|
|
||||||
# --temp 0.7 \
|
|
||||||
# --min-p 0.0 \
|
|
||||||
# --top-p 0.8 \
|
|
||||||
# --top-k 20 \
|
|
||||||
# --repeat-penalty 1.05 \
|
|
||||||
# -ctk q8_0 \
|
|
||||||
# -ctv q8_0 \
|
|
||||||
# -fit off \
|
|
||||||
# -ncmoe 15 \
|
|
||||||
# -ts 77,23
|
|
||||||
# '';
|
|
||||||
};
|
};
|
||||||
|
|
||||||
# https://huggingface.co/unsloth/Qwen3-30B-A3B-Instruct-2507-GGUF/tree/main
|
# https://huggingface.co/unsloth/Qwen3-30B-A3B-Instruct-2507-GGUF/tree/main
|
||||||
@@ -237,7 +235,7 @@ in
|
|||||||
cmd = ''
|
cmd = ''
|
||||||
${pkgs.reichard.llama-cpp}/bin/llama-server \
|
${pkgs.reichard.llama-cpp}/bin/llama-server \
|
||||||
--port ''${PORT} \
|
--port ''${PORT} \
|
||||||
-m /mnt/ssd/Models/Qwen3-VL-8B-Instruct-UD-Q4_K_XL.gguf \
|
-m /mnt/ssd/Models/Qwen3/Qwen3-VL-8B-Instruct-UD-Q4_K_XL.gguf \
|
||||||
--mmproj /mnt/ssd/Models/Qwen3/Qwen3-VL-8B-Instruct-UD-Q4_K_XL_mmproj-F16.gguf \
|
--mmproj /mnt/ssd/Models/Qwen3/Qwen3-VL-8B-Instruct-UD-Q4_K_XL_mmproj-F16.gguf \
|
||||||
-c 65536 \
|
-c 65536 \
|
||||||
--temp 0.7 \
|
--temp 0.7 \
|
||||||
@@ -246,6 +244,7 @@ in
|
|||||||
--top-k 20 \
|
--top-k 20 \
|
||||||
-ctk q8_0 \
|
-ctk q8_0 \
|
||||||
-ctv q8_0 \
|
-ctv q8_0 \
|
||||||
|
-fit off \
|
||||||
-dev CUDA1
|
-dev CUDA1
|
||||||
'';
|
'';
|
||||||
};
|
};
|
||||||
@@ -291,15 +290,41 @@ in
|
|||||||
'';
|
'';
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
|
|
||||||
groups = {
|
groups = {
|
||||||
coding = {
|
shared = {
|
||||||
swap = false;
|
swap = true;
|
||||||
exclusive = true;
|
exclusive = true;
|
||||||
members = [
|
members = [
|
||||||
"devstral-small-2-instruct" # Primary
|
"nemotron-3-nano-30b-thinking"
|
||||||
"qwen2.5-coder-3b-instruct" # Infill
|
"qwen3-30b-2507-instruct"
|
||||||
|
"qwen3-30b-2507-thinking"
|
||||||
|
"qwen3-coder-30b-instruct"
|
||||||
|
"qwen3-next-80b-instruct"
|
||||||
];
|
];
|
||||||
};
|
};
|
||||||
|
|
||||||
|
cuda0 = {
|
||||||
|
swap = true;
|
||||||
|
exclusive = false;
|
||||||
|
members = [
|
||||||
|
"devstral-small-2-instruct"
|
||||||
|
"gpt-oss-20b-thinking"
|
||||||
|
"gpt-oss-csec-20b-thinking"
|
||||||
|
];
|
||||||
|
};
|
||||||
|
|
||||||
|
cuda1 = {
|
||||||
|
swap = true;
|
||||||
|
exclusive = false;
|
||||||
|
members = [
|
||||||
|
"qwen2.5-coder-3b-instruct"
|
||||||
|
"qwen2.5-coder-7b-instruct"
|
||||||
|
"qwen3-4b-2507-instruct"
|
||||||
|
"qwen3-8b-vision"
|
||||||
|
];
|
||||||
|
};
|
||||||
|
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
|
|||||||
Reference in New Issue
Block a user