Jak zainstalować aplikację Ollama w TrueNAS SCALE? (Przewodnik krok po kroku)
Jeśli chcesz uruchomić lokalnie modele językowe AI (np. Llama 3, Mistral, Gemma), aplikacja Ollama jest do tego idealna. Dzięki niej możesz używać dużych modeli w pełni lokalnie – bez chmury, bez płacenia za API. W tym poradniku pokażę Ci krok po kroku, jak zainstalować Ollama przez panel aplikacji w systemie TrueNAS SCALE.
🧠 Co to jest Ollama?
Ollama to otwartoźródłowa aplikacja, która pozwala uruchamiać modele AI (LLM) lokalnie – bez połączenia z internetem. Możesz zadawać pytania, tworzyć chatboty lub wyszukiwać informacje – bez żadnej integracji z OpenAI czy Google.
📦 Krok 1: Przejdź do panelu aplikacji
- Zaloguj się do panelu TrueNAS SCALE
- Przejdź do zakładki Aplikacje
- Wybierz Discover Applications (lub „Odkryj aplikacje”)
- Wyszukaj aplikację Ollama i kliknij
Install
📝 Krok 2: Wypełnij formularz instalacji
1. Application Name
ollama – wpisz nazwę aplikacji (np. „ollama”). To jak etykieta Twojej instancji.
2. Version
1.1.10 – wybierz najnowszą stabilną wersję dostępnej aplikacji.
3. Image Selector
Pozostaw Default Image – nie trzeba zmieniać.
4. Additional Environment Variables
(opcjonalne) – możesz tu dodać dodatkowe zmienne środowiskowe, ale dla większości użytkowników nie są potrzebne.
🌐 Krok 3: Network Configuration
API Port
Wybierz tryb Publish port on the host for external access
Port Number
30068 – to port, pod którym aplikacja będzie widoczna w sieci (np. http://192.168.1.100:30068)
Host IPs
Pozostaw puste, jeśli chcesz aby aplikacja była dostępna pod wszystkimi adresami lokalnymi.
💾 Krok 4: Storage Configuration
Ollama Data Storage
Wybierz ixVolume – system sam stworzy dedykowany folder na dane Ollama.
Enable ACL
Możesz pozostawić domyślnie włączone, jeśli nie używasz niestandardowych uprawnień.
⚙️ Krok 5: Resources Configuration
CPUs
2 – zalecane minimum do uruchamiania lekkich modeli
Memory
4096 MB (czyli 4 GB RAM) – im więcej, tym lepiej dla większych modeli
GPU Configuration
Jeśli masz kartę graficzną i TrueNAS ją obsługuje, możesz włączyć Passthrough. W przeciwnym razie pomiń ten krok.
📥 Krok 6: Kliknij „Install”
Po uzupełnieniu wszystkich pól kliknij przycisk Install. Instalacja może potrwać kilka minut – aplikacja pobierze obraz i przygotuje kontener.
🚀 Krok 7: Uruchamianie i dostęp
Po zakończeniu instalacji:
- Przejdź do zakładki Installed Applications
- Znajdź aplikację „ollama”
- Kliknij „Web Portal” lub wejdź bezpośrednio pod adres:
http://IP_SERWERA:30068
✅ Gotowe! Co dalej?
Teraz możesz:
- Instalować modele za pomocą komend
ollama run mistral,ollama run llama2itp. - Tworzyć własne chatboty lokalnie
- Użyć Ollama jako lokalnego LLM API w swoich projektach (np. z LangChain, LlamaIndex)
💬 Wskazówki końcowe
- Jeśli chcesz korzystać z Ollama przez terminal – potrzebujesz aplikacji CLI w systemie Linux/Mac/Windows
- Możesz połączyć Ollama z UI (np. Chatbot UI, Open WebUI, Flowise)
- W razie problemów z portem – upewnij się, że firewall na TrueNAS nie blokuje połączenia
Jeśli chcesz, przygotuję dla Ciebie osobny poradnik, jak zintegrować Ollama z lokalną wyszukiwarką, czatem lub aplikacją na stronie www.