Skip to content Skip to footer

Ollama w TrueNAS SCALE Instalacja

Jak zainstalować aplikację Ollama w TrueNAS SCALE? (Przewodnik krok po kroku)

Jeśli chcesz uruchomić lokalnie modele językowe AI (np. Llama 3, Mistral, Gemma), aplikacja Ollama jest do tego idealna. Dzięki niej możesz używać dużych modeli w pełni lokalnie – bez chmury, bez płacenia za API. W tym poradniku pokażę Ci krok po kroku, jak zainstalować Ollama przez panel aplikacji w systemie TrueNAS SCALE.

🧠 Co to jest Ollama?

Ollama to otwartoźródłowa aplikacja, która pozwala uruchamiać modele AI (LLM) lokalnie – bez połączenia z internetem. Możesz zadawać pytania, tworzyć chatboty lub wyszukiwać informacje – bez żadnej integracji z OpenAI czy Google.

📦 Krok 1: Przejdź do panelu aplikacji

  1. Zaloguj się do panelu TrueNAS SCALE
  2. Przejdź do zakładki Aplikacje
  3. Wybierz Discover Applications (lub „Odkryj aplikacje”)
  4. Wyszukaj aplikację Ollama i kliknij Install

📝 Krok 2: Wypełnij formularz instalacji

1. Application Name

ollama – wpisz nazwę aplikacji (np. „ollama”). To jak etykieta Twojej instancji.

2. Version

1.1.10 – wybierz najnowszą stabilną wersję dostępnej aplikacji.

3. Image Selector

Pozostaw Default Image – nie trzeba zmieniać.

4. Additional Environment Variables

(opcjonalne) – możesz tu dodać dodatkowe zmienne środowiskowe, ale dla większości użytkowników nie są potrzebne.

🌐 Krok 3: Network Configuration

API Port

Wybierz tryb Publish port on the host for external access

Port Number

30068 – to port, pod którym aplikacja będzie widoczna w sieci (np. http://192.168.1.100:30068)

Host IPs

Pozostaw puste, jeśli chcesz aby aplikacja była dostępna pod wszystkimi adresami lokalnymi.

💾 Krok 4: Storage Configuration

Ollama Data Storage

Wybierz ixVolume – system sam stworzy dedykowany folder na dane Ollama.

Enable ACL

Możesz pozostawić domyślnie włączone, jeśli nie używasz niestandardowych uprawnień.

⚙️ Krok 5: Resources Configuration

CPUs

2 – zalecane minimum do uruchamiania lekkich modeli

Memory

4096 MB (czyli 4 GB RAM) – im więcej, tym lepiej dla większych modeli

GPU Configuration

Jeśli masz kartę graficzną i TrueNAS ją obsługuje, możesz włączyć Passthrough. W przeciwnym razie pomiń ten krok.

📥 Krok 6: Kliknij „Install”

Po uzupełnieniu wszystkich pól kliknij przycisk Install. Instalacja może potrwać kilka minut – aplikacja pobierze obraz i przygotuje kontener.

🚀 Krok 7: Uruchamianie i dostęp

Po zakończeniu instalacji:

  • Przejdź do zakładki Installed Applications
  • Znajdź aplikację „ollama”
  • Kliknij „Web Portal” lub wejdź bezpośrednio pod adres: http://IP_SERWERA:30068

✅ Gotowe! Co dalej?

Teraz możesz:

  • Instalować modele za pomocą komend ollama run mistral, ollama run llama2 itp.
  • Tworzyć własne chatboty lokalnie
  • Użyć Ollama jako lokalnego LLM API w swoich projektach (np. z LangChain, LlamaIndex)

💬 Wskazówki końcowe

  • Jeśli chcesz korzystać z Ollama przez terminal – potrzebujesz aplikacji CLI w systemie Linux/Mac/Windows
  • Możesz połączyć Ollama z UI (np. Chatbot UI, Open WebUI, Flowise)
  • W razie problemów z portem – upewnij się, że firewall na TrueNAS nie blokuje połączenia

Jeśli chcesz, przygotuję dla Ciebie osobny poradnik, jak zintegrować Ollama z lokalną wyszukiwarką, czatem lub aplikacją na stronie www.

Leave a comment

0.0/5