Skip to content Skip to footer

Archon – AI Agent Builder

🚀 **AKTUALNA WERSJA** 🚀

[ V6 – Biblioteka narzędzi i integracja MCP ] Wstępnie utworzone narzędzia, przykłady i integracja z serwerem MCP

🔄 WAŻNA AKTUALIZACJA (31 marca): Archon zawiera teraz bibliotekę gotowych narzędzi, przykładów i integracji z serwerami MCP. Archont może teraz wykorzystywać te zasoby podczas tworzenia nowych agentów, znacznie zwiększając możliwości i zmniejszając halucynacje. Zauważ, że przykłady/biblioteka narzędzi dla Archonta dopiero się zaczyna. Zachęcamy do dzielenia się przykładami, serwerami MCP i gotowymi narzędziami!

Archont jest pierwszym na świecie „Agenteerem”, agentem SI zaprojektowanym do autonomicznego tworzenia, udoskonalania i optymalizacji innych agentów SI.

Służy zarówno jako praktyczne narzędzie dla programistów, jak i jako ramy edukacyjne demonstrujące ewolucję systemów agentycznych. Archont będzie rozwijany w kolejnych iteracjach, zaczynając od prostego pydantycznego agenta SI, który może budować innych pydantycznych agentów SI, aż do pełnego przepływu pracy agentów przy użyciu LangGraph, który może budować innych agentów AI za pomocą dowolnej struktury. Poprzez iteracyjny rozwój, Archon prezentuje moc planowania, pętli sprzężenia zwrotnego i wiedzy specyficznej dla danej dziedziny w tworzeniu solidnych agentów SI.

Ważne linki

Widzenie

Archon demonstruje trzy kluczowe zasady rozwoju nowoczesnej sztucznej inteligencji:

  1. Rozumowanie agentywne: Planowanie, iteracyjne informacje zwrotne i samoocena przezwyciężają ograniczenia systemów czysto reaktywnych
  2. Integracja wiedzy domenowej: Bezproblemowe osadzanie frameworków, takich jak Pydantic AI i LangGraph, w autonomicznych przepływach pracy
  3. Skalowalna architektura: modułowa konstrukcja wspierająca łatwość konserwacji, optymalizację kosztów i etyczne praktyki w zakresie sztucznej inteligencji

Wprowadzenie do wersji V6 (bieżąca wersja)

Ponieważ V6 jest aktualną wersją Archon, cały kod V6 znajduje się zarówno w katalogu głównym, jak i katalogu.archon/iterations/v6-tool-library-integration

Zauważ, że przykłady/biblioteka narzędzi dla Archonta dopiero się zaczyna. Zachęcamy do dzielenia się przykładami, serwerami MCP i gotowymi narzędziami!

Warunki wstępne

  • Docker (opcjonalny, ale preferowany)
  • Język Python 3.11+
  • Konto Supabase (dla wektorowej bazy danych)
  • Klucz API OpenAI/Anthropic/OpenRouter lub Ollama dla lokalnych LLM (należy pamiętać, że obecnie tylko OpenAI obsługuje przesyłanie strumieniowe w interfejsie użytkownika Streamlit)

Instalacja

Opcja 1: Docker (zalecane)

  1. Sklonuj repozytorium:
git clone https://github.com/coleam00/archon.git
cd archon
 
  1. Uruchom skrypt instalacyjny platformy Docker:
# This will build both containers and start Archon
python run_docker.py
 
  1. Uzyskaj dostęp do interfejsu użytkownika Streamlit pod adresem http://localhost:8501.

Uwaga: automatycznie:run_docker.py

  • Tworzenie kontenera serwera MCP
  • Zbuduj główny kontener Archonta
  • Uruchom Archon z odpowiednimi mapowaniami portów
  • Użyj zmiennych środowiskowych z pliku, jeśli istnieje.env

Opcja 2: Lokalna instalacja Pythona

  1. Sklonuj repozytorium:
git clone https://github.com/coleam00/archon.git
cd archon
 
  1. Zainstaluj zależności:
python -m venv venv
source venv/bin/activate  # On Windows: venv\Scripts\activate
pip install -r requirements.txt
 
  1. Uruchom interfejs użytkownika Streamlit:
streamlit run streamlit_ui.py
 
  1. Uzyskaj dostęp do interfejsu użytkownika Streamlit pod adresem http://localhost:8501.

Proces konfiguracji

Po instalacji postępuj zgodnie z procesem instalacji z przewodnikiem w sekcji Wprowadzenie interfejsu użytkownika Streamlit:

  • Środowisko: Skonfiguruj klucze interfejsu API i ustawienia modelu — wszystkie przechowywane w workbench/env_vars.json
  • Baza danych: Skonfiguruj wektorową bazę danych Supabase
  • Dokumentacja: przeszukiwanie i indeksowanie dokumentacji sztucznej inteligencji Pydantic
  • Usługa agenta: Uruchamianie usługi agenta w celu generowania agentów
  • Czat: Wejdź w interakcję z Archontem, aby stworzyć agentów SI
  • MCP (opcjonalnie): Konfigurowanie integracji z środowiskami IDE AI

Interfejs Streamlit poprowadzi Cię przez każdy krok z jasnymi instrukcjami i interaktywnymi elementami. Konfiguracja składa się z wielu kroków, ale wszystko idzie szybko!

Rozwiązywanie problemów

Jeśli napotkasz jakiekolwiek błędy podczas korzystania z Archon, najpierw sprawdź logi w zakładce „Usługa Agenta”. Logi przeznaczone specjalnie dla MCP są również rejestrowane (plik jest tworzony automatycznie), więc proszę Sprawdź tam. Celem jest uzyskanie jasnego komunikatu o błędzie przed utworzeniem usterki w tym miejscu w repozytorium GitHubworkbench/logs.txt

Aktualizacja Archonta

Opcja 1: Docker

Aby uzyskać najnowsze aktualizacje dla Archon podczas korzystania z platformy Docker:

# Pull the latest changes from the repository (from within the archon directory)
git pull

# Rebuild and restart the containers with the latest changes
python run_docker.py
 

Skrypt automatycznie:run_docker.py

  • Wykryj i usuń wszystkie istniejące kontenery Archon (niezależnie od tego, czy są uruchomione, czy zatrzymane)
  • Ponowne kompilowanie kontenerów przy użyciu najnowszego kodu
  • Uruchamianie nowych kontenerów ze zaktualizowaną wersją

Opcja 2: Lokalna instalacja Pythona

Aby uzyskać najnowsze aktualizacje dla Archon podczas korzystania z lokalnej instalacji języka Python:

# Pull the latest changes from the repository (from within the archon directory)
git pull

# Install any new dependencies
source venv/bin/activate  # On Windows: venv\Scripts\activate
pip install -r requirements.txt

# Restart the Streamlit UI
# (If you're already running it, stop with Ctrl+C first)
streamlit run streamlit_ui.py
 

Dzięki temu zawsze korzystasz z najnowszej wersji Archona ze wszystkimi najnowszymi funkcjami i poprawkami błędów.

Ewolucja projektu

V1: Fundament z jednym agentem

  • Podstawowy agent oparty na RAG przy użyciu Pydantic AI
  • Wektorowa baza danych Supabase do przechowywania dokumentacji
  • Proste generowanie kodu bez walidacji
  • Dowiedz się więcej o V1

V2: Agent Workflow (LangGraph)

  • System wieloagentowy z separacją planowania i realizacji
  • Uzasadnienie LLM (O3-mini/R1) do planowania architektury
  • LangGraph do orkiestracji przepływu pracy
  • Wsparcie dla lokalnych LLM przez Ollama
  • Dowiedz się więcej o V2

V3: Obsługa MCP

  • Integracja z IDE AI, takimi jak Windsurf i Cursor
  • Automatyczne tworzenie plików i zarządzanie zależnościami
  • Usługa FastAPI do generowania agentów
  • Ulepszona struktura i organizacja projektu
  • Dowiedz się więcej o wersji V3

V4: Przeróbka interfejsu użytkownika Streamlit

  • Obsługa platformy Docker
  • Kompleksowy interfejs Streamlit do zarządzania wszystkimi aspektami Archon
  • Proces konfiguracji z przewodnikiem z interaktywnymi zakładkami
  • Zarządzanie zmiennymi środowiskowymi za pomocą interfejsu użytkownika
  • Uproszczona konfiguracja bazy danych i przeszukiwanie dokumentacji
  • Kontrola i monitorowanie usług agentów
  • Konfiguracja MCP za pomocą interfejsu użytkownika
  • Dowiedz się więcej o V4

V5: Obieg pracy kodowania wieloagentowego

  • Specjalistyczne środki uszlachetniające dla różnych autonomicznie ulepszających początkowo wygenerowany czynnik
  • Agent uściślający podpowiedzi do optymalizacji monitów systemu
  • Agent uszlachetniający narzędzia do implementacji specjalistycznych narzędzi
  • Agent prefiner do optymalizacji konfiguracji agenta i zależności
  • Spójna struktura agenta wyjściowego przed specjalistycznym udoskonaleniem
  • Ulepszona orkiestracja przepływu pracy dzięki LangGraph
  • Dowiedz się więcej o V5

V6: Bieżący — biblioteka narzędzi i integracja MCP

  • Obszerna biblioteka wstępnie utworzonych narzędzi, przykładów i szablonów agentów
  • Integracja z serwerami MCP w celu uzyskania ogromnej liczby gotowych narzędzi
  • Agent usługi Advisor, który zaleca odpowiednie narzędzia i przykłady na podstawie wymagań użytkownika
  • Automatyczne włączanie wstępnie utworzonych komponentów do nowych agentów
  • Wyspecjalizowany agent rafiner narzędzi weryfikuje również i optymalizuje konfiguracje serwerów MCP
  • Usprawniony dostęp do usług zewnętrznych dzięki integracji z MCP
  • Skrócony czas projektowania dzięki ponownemu wykorzystaniu komponentów
  • Dowiedz się więcej o V6

Przyszłe iteracje

  • V7: Dokumentacja LangGraph – Pozwól Archonowi budować agentów Pydantic AI ORAZ LangGraph
  • V8: Pętla samosprzężenia zwrotnego – Automatyczna walidacja i korekcja błędów
  • V9: Self Agent Execution — testowanie i iterowanie agentów w izolowanym środowisku
  • V10: Obsługa wielu platform — generowanie agentów niezależne od platformy
  • V11: Autonomous Framework Learning — samoaktualizujące się adaptery struktury
  • V12: Zaawansowane techniki RAG – Ulepszone wyszukiwanie i włączanie dokumentacji ramowej
  • V13: MCP Agent Marketplace — integracja agentów Archon jako serwerów MCP i publikowanie na rynkach

Przyszłe integracje

Architektura agentów Archonta

Poniższy diagram ze studia LangGraph jest wizualną reprezentacją wykresu agenta Archonta.

Przepływ działa w następujący sposób:

  1. Opisujesz początkowego agenta AI, którego chcesz utworzyć
  2. Powód LLM tworzy zakres wysokiego poziomu dla agenta
  3. Podstawowy agent kodowania używa zakresu i dokumentacji do utworzenia agenta początkowego
  4. Kontrola jest przekazywana z powrotem do ciebie, który może przekazać informację zwrotną lub poprosić Archonta o autonomiczne „udoskonalenie” agenta
  5. W przypadku autonomicznego udoskonalania wyspecjalizowani agenci są wywoływani w celu ulepszenia monitu, narzędzi i konfiguracji agenta
  6. Podstawowy agent kodowania jest wywoływany ponownie z informacją zwrotną od użytkownika lub wyspecjalizowanego agenta
  7. Proces wraca do kroku 4, dopóki nie powiesz, że agent jest kompletny
  8. Gdy agent jest gotowy, Archon ponownie wypluwa pełny kod wraz z instrukcjami dotyczącymi jego uruchomienia

Architektura plików

Podstawowe pliki

  • streamlit_ui.py: Kompleksowy interfejs sieciowy do zarządzania wszystkimi aspektami Archonu
  • graph_service.py: Usługa FastAPI, która obsługuje przepływ pracy agenta
  • run_docker.py: Skrypt do budowania i uruchamiania kontenerów Archon Docker
  • Dockerfile: Definicja kontenera dla głównej aplikacji Archon

Integracja z MCP

  • mcp/: Implementacja serwera protokołu Model Context Protocol
    • mcp_server.py: Skrypt serwera MCP do integracji AI IDE
    • Dockerfile: Definicja kontenera dla serwera MCP

Pakiet Archonta

  • archon/: Implementacja podstawowego agenta i przepływu pracy
    • archon_graph.py: Definicja przepływu pracy LangGraph i koordynacja agentów
    • pydantic_ai_coder.py: Główny agent kodujący z możliwościami RAG
    • refiner_agents/: Wyspecjalizowani agenci do udoskonalania różnych aspektów utworzonego agenta
      • prompt_refiner_agent.py: Optymalizuje monity systemowe
      • tools_refiner_agent.py: Specjalizuje się we wdrażaniu narzędzi
      • agent_refiner_agent.py: Uściśla konfigurację agenta i zależności
    • crawl_pydantic_ai_docs.py: Przeszukiwanie i procesor dokumentacji

Narzędzia

  • utils/: Funkcje narzędziowe i konfiguracja bazy danych
    • utils.py: Współdzielone funkcje użytkowe
    • site_pages.sql: Polecenia konfiguracji bazy danych

Workbench

  • workbench/: Tworzone w czasie wykonywania, pliki specyficzne dla danego środowiska
    • env_vars.json: Zmienne środowiskowe zdefiniowane w interfejsie użytkownika są przechowywane w tym miejscu (zawarte w .gitignore, plik jest tworzony automatycznie)
    • logs.txt: Niskopoziomowe logi dla wszystkich procesów Archonta znajdują się tutaj
    • scope.md: Szczegółowy dokument zakresu tworzony przez model rozumowania na początku każdej egzekucji Archonta

Opcje wdrożenia

  • Kontenery Docker: Uruchamiaj Archon w izolowanych kontenerach ze wszystkimi zależnościami
    • Kontener główny: uruchamia interfejs użytkownika Streamlit i usługę grafu
    • Kontener MCP: zapewnia funkcjonalność serwera MCP dla środowisk IDE AI
  • Lokalny język Python: uruchamianie bezpośrednio w systemie za pomocą środowiska wirtualnego języka Python

Architektura platformy Docker

Implementacja Dockera składa się z dwóch kontenerów:

  1. Główny kontener Archonta:

    • Uruchamia interfejs użytkownika Streamlit na porcie 8501
    • Hostuje usługę Graph Service na porcie 8100
    • Utworzony na podstawie głównego pliku Dockerfile
    • Obsługuje wszystkie funkcje agenta i interakcje z użytkownikami
  2. Kontener MCP:

    • Implementuje protokół Model Context Protocol na potrzeby integracji ze środowiskiem IDE sztucznej inteligencji
    • Utworzony na podstawie pliku mcp/Dockerfile
    • Komunikuje się z usługą grafu głównego kontenera
    • Zapewnia ustandaryzowany interfejs dla IDE AI, takich jak Windsurf, Cursor, Cline i Roo Code

Podczas uruchamiania z Dockerem skrypt automatyzuje kompilowanie i uruchamianie obu kontenerów z odpowiednią konfiguracją.run_docker.py

Konfiguracja bazy danych

Baza danych Supabase używa następującego schematu:

CREATE TABLE site_pages (
    id UUID PRIMARY KEY DEFAULT uuid_generate_v4(),
    url TEXT,
    chunk_number INTEGER,
    title TEXT,
    summary TEXT,
    content TEXT,
    metadata JSONB,
    embedding VECTOR(1536) -- Adjust dimensions as necessary (i.e. 768 for nomic-embed-text)
);
 

Interfejs użytkownika Streamlit zapewnia interfejs do automatycznego konfigurowania tej struktury bazy danych.

Przyczyniając się

Czekamy na wpłaty! Niezależnie od tego, czy naprawiasz błędy, dodajesz funkcje, czy ulepszasz dokumentację, możesz przesłać żądanie ściągnięcia.

Licencja

Licencja X11


Aby uzyskać szczegółowe informacje dotyczące wersji:

Leave a comment

0.0/5