feat: Remove desmos added llama_ik
This commit is contained in:
@@ -19,7 +19,7 @@
|
|||||||
./grafana.nix
|
./grafana.nix
|
||||||
|
|
||||||
./excalidraw.nix
|
./excalidraw.nix
|
||||||
./desmos.nix
|
# ./desmos.nix
|
||||||
# ./ldap.nix
|
# ./ldap.nix
|
||||||
# ./llama.nix
|
# ./llama.nix
|
||||||
# ./navidrome.nix
|
# ./navidrome.nix
|
||||||
|
|||||||
@@ -1,6 +1,7 @@
|
|||||||
{
|
{
|
||||||
config,
|
config,
|
||||||
pkgs,
|
pkgs,
|
||||||
|
inputs,
|
||||||
...
|
...
|
||||||
}: {
|
}: {
|
||||||
sops = {
|
sops = {
|
||||||
@@ -18,6 +19,15 @@
|
|||||||
};
|
};
|
||||||
};
|
};
|
||||||
services = {
|
services = {
|
||||||
|
llama-cpp = {
|
||||||
|
enable = true;
|
||||||
|
port = 11435;
|
||||||
|
model = pkgs.fetchurl {
|
||||||
|
url = "https://huggingface.co/unsloth/gpt-oss-20b-GGUF/resolve/main/gpt-oss-20b-F16.gguf";
|
||||||
|
sha256 = "sha256-vE1SpG4diQiP88u0viGnyZ8LtotTUU19UGecnwfjOkE=";
|
||||||
|
};
|
||||||
|
package = pkgs.ik_llama;
|
||||||
|
};
|
||||||
ollama = {
|
ollama = {
|
||||||
enable = true;
|
enable = true;
|
||||||
loadModels = ["deepseek-r1:7b" "deepseek-r1:14b" "RobinBially/nomic-embed-text-8k" "qwen3:8b"];
|
loadModels = ["deepseek-r1:7b" "deepseek-r1:14b" "RobinBially/nomic-embed-text-8k" "qwen3:8b"];
|
||||||
|
|||||||
@@ -26,7 +26,9 @@
|
|||||||
'';
|
'';
|
||||||
package = pkgs.caddy.withPlugins {
|
package = pkgs.caddy.withPlugins {
|
||||||
plugins = ["github.com/caddy-dns/hetzner@v1.0.0"];
|
plugins = ["github.com/caddy-dns/hetzner@v1.0.0"];
|
||||||
hash = "sha256-9ea0CfOHG7JhejB73HjfXQpnonn+ZRBqLNz1fFRkcDQ=";
|
# hash = "sha256-9ea0CfOHG7JhejB73HjfXQpnonn+ZRBqLNz1fFRkcDQ=";
|
||||||
|
# hash = "sha256-9ea0CfOHG7JhejB73HjfXQpnonn+ZRBqLNz1fFRkcDQ="
|
||||||
|
hash = "sha256-YUrprDZQL+cX3P8fVLKHouXTMG4rw3sCaQdGqiq37uA=";
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
};
|
};
|
||||||
|
|||||||
@@ -5,7 +5,7 @@
|
|||||||
# ./zerotier.nix
|
# ./zerotier.nix
|
||||||
# ./dnscrypt.nix
|
# ./dnscrypt.nix
|
||||||
# ./ollama.nix
|
# ./ollama.nix
|
||||||
# ./llama.nix
|
./llama.nix
|
||||||
./tailscale.nix
|
./tailscale.nix
|
||||||
./samba.nix
|
./samba.nix
|
||||||
./mullvad.nix
|
./mullvad.nix
|
||||||
|
|||||||
@@ -8,14 +8,12 @@
|
|||||||
services = {
|
services = {
|
||||||
llama-cpp = {
|
llama-cpp = {
|
||||||
enable = true;
|
enable = true;
|
||||||
|
port = 11435;
|
||||||
model = pkgs.fetchurl {
|
model = pkgs.fetchurl {
|
||||||
url = "https://huggingface.co/unsloth/gpt-oss-20b-GGUF/resolve/main/gpt-oss-20b-F16.gguf";
|
url = "https://huggingface.co/unsloth/gpt-oss-20b-GGUF/resolve/main/gpt-oss-20b-F16.gguf";
|
||||||
sha256 = "b93a63c42fc2432396b56031bb1a4aa5f598af1de369de397a900888032cad64";
|
sha256 = "sha256-vE1SpG4diQiP88u0viGnyZ8LtotTUU19UGecnwfjOkE=";
|
||||||
};
|
};
|
||||||
# package = pkgs.llama-cpp.overrideAttrs (old: {
|
package = pkgs.ik_llama;
|
||||||
# src = inputs.ik_llama;
|
|
||||||
# version = "5995";
|
|
||||||
# });
|
|
||||||
};
|
};
|
||||||
# caddy = {
|
# caddy = {
|
||||||
# virtualHosts."llama.ryu.darksailor.dev".extraConfig = ''
|
# virtualHosts."llama.ryu.darksailor.dev".extraConfig = ''
|
||||||
|
|||||||
@@ -121,7 +121,10 @@
|
|||||||
};
|
};
|
||||||
};
|
};
|
||||||
ddcbacklight = inputs.ddcbacklight.packages.${prev.system}.ddcbacklight;
|
ddcbacklight = inputs.ddcbacklight.packages.${prev.system}.ddcbacklight;
|
||||||
# ghostty = inputs.ghostty.packages.${prev.system}.default;
|
ik_llama = prev.llama-cpp.overrideAttrs (oldAttrs: {
|
||||||
|
src = inputs.ik_llama;
|
||||||
|
version = "5995";
|
||||||
|
});
|
||||||
python312 = prev.python312.override {
|
python312 = prev.python312.override {
|
||||||
packageOverrides = final: prev: {
|
packageOverrides = final: prev: {
|
||||||
pysaml2 = prev.pysaml2.overridePythonAttrs (orig: {
|
pysaml2 = prev.pysaml2.overridePythonAttrs (orig: {
|
||||||
|
|||||||
Reference in New Issue
Block a user