[ V6 – Biblioteka narzędzi i integracja MCP ] Wstępnie utworzone narzędzia, przykłady i integracja z serwerem MCP
🔄 WAŻNA AKTUALIZACJA (31 marca): Archon zawiera teraz bibliotekę gotowych narzędzi, przykładów i integracji z serwerami MCP. Archont może teraz wykorzystywać te zasoby podczas tworzenia nowych agentów, znacznie zwiększając możliwości i zmniejszając halucynacje. Zauważ, że przykłady/biblioteka narzędzi dla Archonta dopiero się zaczyna. Zachęcamy do dzielenia się przykładami, serwerami MCP i gotowymi narzędziami!
Archont jest pierwszym na świecie „Agenteerem”, agentem SI zaprojektowanym do autonomicznego tworzenia, udoskonalania i optymalizacji innych agentów SI.
Służy zarówno jako praktyczne narzędzie dla programistów, jak i jako ramy edukacyjne demonstrujące ewolucję systemów agentycznych. Archont będzie rozwijany w kolejnych iteracjach, zaczynając od prostego pydantycznego agenta SI, który może budować innych pydantycznych agentów SI, aż do pełnego przepływu pracy agentów przy użyciu LangGraph, który może budować innych agentów AI za pomocą dowolnej struktury. Poprzez iteracyjny rozwój, Archon prezentuje moc planowania, pętli sprzężenia zwrotnego i wiedzy specyficznej dla danej dziedziny w tworzeniu solidnych agentów SI.
Obecna wersja Archona to V6, jak wspomniano powyżej – szczegóły w dokumentacji V6.
Właśnie stworzyłem forum społeczności Archont w oTTomator Think Tank! Prosimy o zamieszczanie tam wszelkich pytań!
Tablica Kanban GitHub do implementacji funkcji i usuwania błędów.
Archon demonstruje trzy kluczowe zasady rozwoju nowoczesnej sztucznej inteligencji:
- Rozumowanie agentywne: Planowanie, iteracyjne informacje zwrotne i samoocena przezwyciężają ograniczenia systemów czysto reaktywnych
- Integracja wiedzy domenowej: Bezproblemowe osadzanie frameworków, takich jak Pydantic AI i LangGraph, w autonomicznych przepływach pracy
- Skalowalna architektura: modułowa konstrukcja wspierająca łatwość konserwacji, optymalizację kosztów i etyczne praktyki w zakresie sztucznej inteligencji
Ponieważ V6 jest aktualną wersją Archon, cały kod V6 znajduje się zarówno w katalogu głównym, jak i katalogu.archon/iterations/v6-tool-library-integration
Zauważ, że przykłady/biblioteka narzędzi dla Archonta dopiero się zaczyna. Zachęcamy do dzielenia się przykładami, serwerami MCP i gotowymi narzędziami!
- Docker (opcjonalny, ale preferowany)
- Język Python 3.11+
- Konto Supabase (dla wektorowej bazy danych)
- Klucz API OpenAI/Anthropic/OpenRouter lub Ollama dla lokalnych LLM (należy pamiętać, że obecnie tylko OpenAI obsługuje przesyłanie strumieniowe w interfejsie użytkownika Streamlit)
- Sklonuj repozytorium:
git clone https://github.com/coleam00/archon.git
cd archon- Uruchom skrypt instalacyjny platformy Docker:
# This will build both containers and start Archon
python run_docker.py- Uzyskaj dostęp do interfejsu użytkownika Streamlit pod adresem http://localhost:8501.
Uwaga: automatycznie:
run_docker.py
- Tworzenie kontenera serwera MCP
- Zbuduj główny kontener Archonta
- Uruchom Archon z odpowiednimi mapowaniami portów
- Użyj zmiennych środowiskowych z pliku, jeśli istnieje
.env
- Sklonuj repozytorium:
git clone https://github.com/coleam00/archon.git
cd archon- Zainstaluj zależności:
python -m venv venv
source venv/bin/activate # On Windows: venv\Scripts\activate
pip install -r requirements.txt- Uruchom interfejs użytkownika Streamlit:
streamlit run streamlit_ui.py- Uzyskaj dostęp do interfejsu użytkownika Streamlit pod adresem http://localhost:8501.
Po instalacji postępuj zgodnie z procesem instalacji z przewodnikiem w sekcji Wprowadzenie interfejsu użytkownika Streamlit:
- Środowisko: Skonfiguruj klucze interfejsu API i ustawienia modelu — wszystkie przechowywane w
workbench/env_vars.json - Baza danych: Skonfiguruj wektorową bazę danych Supabase
- Dokumentacja: przeszukiwanie i indeksowanie dokumentacji sztucznej inteligencji Pydantic
- Usługa agenta: Uruchamianie usługi agenta w celu generowania agentów
- Czat: Wejdź w interakcję z Archontem, aby stworzyć agentów SI
- MCP (opcjonalnie): Konfigurowanie integracji z środowiskami IDE AI
Interfejs Streamlit poprowadzi Cię przez każdy krok z jasnymi instrukcjami i interaktywnymi elementami. Konfiguracja składa się z wielu kroków, ale wszystko idzie szybko!
Jeśli napotkasz jakiekolwiek błędy podczas korzystania z Archon, najpierw sprawdź logi w zakładce „Usługa Agenta”. Logi przeznaczone specjalnie dla MCP są również rejestrowane (plik jest tworzony automatycznie), więc proszę Sprawdź tam. Celem jest uzyskanie jasnego komunikatu o błędzie przed utworzeniem usterki w tym miejscu w repozytorium GitHubworkbench/logs.txt
Aby uzyskać najnowsze aktualizacje dla Archon podczas korzystania z platformy Docker:
# Pull the latest changes from the repository (from within the archon directory)
git pull
# Rebuild and restart the containers with the latest changes
python run_docker.pySkrypt automatycznie:run_docker.py
- Wykryj i usuń wszystkie istniejące kontenery Archon (niezależnie od tego, czy są uruchomione, czy zatrzymane)
- Ponowne kompilowanie kontenerów przy użyciu najnowszego kodu
- Uruchamianie nowych kontenerów ze zaktualizowaną wersją
Aby uzyskać najnowsze aktualizacje dla Archon podczas korzystania z lokalnej instalacji języka Python:
# Pull the latest changes from the repository (from within the archon directory)
git pull
# Install any new dependencies
source venv/bin/activate # On Windows: venv\Scripts\activate
pip install -r requirements.txt
# Restart the Streamlit UI
# (If you're already running it, stop with Ctrl+C first)
streamlit run streamlit_ui.pyDzięki temu zawsze korzystasz z najnowszej wersji Archona ze wszystkimi najnowszymi funkcjami i poprawkami błędów.
- Podstawowy agent oparty na RAG przy użyciu Pydantic AI
- Wektorowa baza danych Supabase do przechowywania dokumentacji
- Proste generowanie kodu bez walidacji
- Dowiedz się więcej o V1
- System wieloagentowy z separacją planowania i realizacji
- Uzasadnienie LLM (O3-mini/R1) do planowania architektury
- LangGraph do orkiestracji przepływu pracy
- Wsparcie dla lokalnych LLM przez Ollama
- Dowiedz się więcej o V2
- Integracja z IDE AI, takimi jak Windsurf i Cursor
- Automatyczne tworzenie plików i zarządzanie zależnościami
- Usługa FastAPI do generowania agentów
- Ulepszona struktura i organizacja projektu
- Dowiedz się więcej o wersji V3
- Obsługa platformy Docker
- Kompleksowy interfejs Streamlit do zarządzania wszystkimi aspektami Archon
- Proces konfiguracji z przewodnikiem z interaktywnymi zakładkami
- Zarządzanie zmiennymi środowiskowymi za pomocą interfejsu użytkownika
- Uproszczona konfiguracja bazy danych i przeszukiwanie dokumentacji
- Kontrola i monitorowanie usług agentów
- Konfiguracja MCP za pomocą interfejsu użytkownika
- Dowiedz się więcej o V4
- Specjalistyczne środki uszlachetniające dla różnych autonomicznie ulepszających początkowo wygenerowany czynnik
- Agent uściślający podpowiedzi do optymalizacji monitów systemu
- Agent uszlachetniający narzędzia do implementacji specjalistycznych narzędzi
- Agent prefiner do optymalizacji konfiguracji agenta i zależności
- Spójna struktura agenta wyjściowego przed specjalistycznym udoskonaleniem
- Ulepszona orkiestracja przepływu pracy dzięki LangGraph
- Dowiedz się więcej o V5
- Obszerna biblioteka wstępnie utworzonych narzędzi, przykładów i szablonów agentów
- Integracja z serwerami MCP w celu uzyskania ogromnej liczby gotowych narzędzi
- Agent usługi Advisor, który zaleca odpowiednie narzędzia i przykłady na podstawie wymagań użytkownika
- Automatyczne włączanie wstępnie utworzonych komponentów do nowych agentów
- Wyspecjalizowany agent rafiner narzędzi weryfikuje również i optymalizuje konfiguracje serwerów MCP
- Usprawniony dostęp do usług zewnętrznych dzięki integracji z MCP
- Skrócony czas projektowania dzięki ponownemu wykorzystaniu komponentów
- Dowiedz się więcej o V6
- V7: Dokumentacja LangGraph – Pozwól Archonowi budować agentów Pydantic AI ORAZ LangGraph
- V8: Pętla samosprzężenia zwrotnego – Automatyczna walidacja i korekcja błędów
- V9: Self Agent Execution — testowanie i iterowanie agentów w izolowanym środowisku
- V10: Obsługa wielu platform — generowanie agentów niezależne od platformy
- V11: Autonomous Framework Learning — samoaktualizujące się adaptery struktury
- V12: Zaawansowane techniki RAG – Ulepszone wyszukiwanie i włączanie dokumentacji ramowej
- V13: MCP Agent Marketplace — integracja agentów Archon jako serwerów MCP i publikowanie na rynkach
- LangSmith
- Rynek MCP
- Inne frameworki oprócz Pydantic AI
- Inne wektorowe bazy danych oprócz Supabase
- Lokalny pakiet sztucznej inteligencji dla środowiska agenta
Poniższy diagram ze studia LangGraph jest wizualną reprezentacją wykresu agenta Archonta.
Przepływ działa w następujący sposób:
- Opisujesz początkowego agenta AI, którego chcesz utworzyć
- Powód LLM tworzy zakres wysokiego poziomu dla agenta
- Podstawowy agent kodowania używa zakresu i dokumentacji do utworzenia agenta początkowego
- Kontrola jest przekazywana z powrotem do ciebie, który może przekazać informację zwrotną lub poprosić Archonta o autonomiczne „udoskonalenie” agenta
- W przypadku autonomicznego udoskonalania wyspecjalizowani agenci są wywoływani w celu ulepszenia monitu, narzędzi i konfiguracji agenta
- Podstawowy agent kodowania jest wywoływany ponownie z informacją zwrotną od użytkownika lub wyspecjalizowanego agenta
- Proces wraca do kroku 4, dopóki nie powiesz, że agent jest kompletny
- Gdy agent jest gotowy, Archon ponownie wypluwa pełny kod wraz z instrukcjami dotyczącymi jego uruchomienia
streamlit_ui.py: Kompleksowy interfejs sieciowy do zarządzania wszystkimi aspektami Archonugraph_service.py: Usługa FastAPI, która obsługuje przepływ pracy agentarun_docker.py: Skrypt do budowania i uruchamiania kontenerów Archon DockerDockerfile: Definicja kontenera dla głównej aplikacji Archon
mcp/: Implementacja serwera protokołu Model Context Protocolmcp_server.py: Skrypt serwera MCP do integracji AI IDEDockerfile: Definicja kontenera dla serwera MCP
archon/: Implementacja podstawowego agenta i przepływu pracyarchon_graph.py: Definicja przepływu pracy LangGraph i koordynacja agentówpydantic_ai_coder.py: Główny agent kodujący z możliwościami RAGrefiner_agents/: Wyspecjalizowani agenci do udoskonalania różnych aspektów utworzonego agentaprompt_refiner_agent.py: Optymalizuje monity systemowetools_refiner_agent.py: Specjalizuje się we wdrażaniu narzędziagent_refiner_agent.py: Uściśla konfigurację agenta i zależności
crawl_pydantic_ai_docs.py: Przeszukiwanie i procesor dokumentacji
utils/: Funkcje narzędziowe i konfiguracja bazy danychutils.py: Współdzielone funkcje użytkowesite_pages.sql: Polecenia konfiguracji bazy danych
workbench/: Tworzone w czasie wykonywania, pliki specyficzne dla danego środowiskaenv_vars.json: Zmienne środowiskowe zdefiniowane w interfejsie użytkownika są przechowywane w tym miejscu (zawarte w .gitignore, plik jest tworzony automatycznie)logs.txt: Niskopoziomowe logi dla wszystkich procesów Archonta znajdują się tutajscope.md: Szczegółowy dokument zakresu tworzony przez model rozumowania na początku każdej egzekucji Archonta
- Kontenery Docker: Uruchamiaj Archon w izolowanych kontenerach ze wszystkimi zależnościami
- Kontener główny: uruchamia interfejs użytkownika Streamlit i usługę grafu
- Kontener MCP: zapewnia funkcjonalność serwera MCP dla środowisk IDE AI
- Lokalny język Python: uruchamianie bezpośrednio w systemie za pomocą środowiska wirtualnego języka Python
Implementacja Dockera składa się z dwóch kontenerów:
Główny kontener Archonta:
- Uruchamia interfejs użytkownika Streamlit na porcie 8501
- Hostuje usługę Graph Service na porcie 8100
- Utworzony na podstawie głównego pliku Dockerfile
- Obsługuje wszystkie funkcje agenta i interakcje z użytkownikami
Kontener MCP:
- Implementuje protokół Model Context Protocol na potrzeby integracji ze środowiskiem IDE sztucznej inteligencji
- Utworzony na podstawie pliku mcp/Dockerfile
- Komunikuje się z usługą grafu głównego kontenera
- Zapewnia ustandaryzowany interfejs dla IDE AI, takich jak Windsurf, Cursor, Cline i Roo Code
Podczas uruchamiania z Dockerem skrypt automatyzuje kompilowanie i uruchamianie obu kontenerów z odpowiednią konfiguracją.run_docker.py
Baza danych Supabase używa następującego schematu:
CREATE TABLE site_pages (
id UUID PRIMARY KEY DEFAULT uuid_generate_v4(),
url TEXT,
chunk_number INTEGER,
title TEXT,
summary TEXT,
content TEXT,
metadata JSONB,
embedding VECTOR(1536) -- Adjust dimensions as necessary (i.e. 768 for nomic-embed-text)
);Interfejs użytkownika Streamlit zapewnia interfejs do automatycznego konfigurowania tej struktury bazy danych.
Czekamy na wpłaty! Niezależnie od tego, czy naprawiasz błędy, dodajesz funkcje, czy ulepszasz dokumentację, możesz przesłać żądanie ściągnięcia.
Aby uzyskać szczegółowe informacje dotyczące wersji: