|
| 1 | +# Eliza - Multi-Agent-Simulationsframework |
| 2 | + |
| 3 | +# https://github.com/elizaos/eliza |
| 4 | + |
| 5 | +# Besuchen Sie https://eliza.builders für Support |
| 6 | + |
| 7 | +# dev branch |
| 8 | + |
| 9 | +<img src="./docs/static/img/eliza_banner.jpg" alt="Eliza Banner" width="100%" /> |
| 10 | + |
| 11 | +_Wie gesehen bei [@DegenSpartanAI](https://x.com/degenspartanai) und [@MarcAIndreessen](https://x.com/pmairca)_ |
| 12 | + |
| 13 | +- Multi-Agent-Simulationsframework |
| 14 | +- Fügen Sie beliebig viele einzigartige Charaktere mit [characterfile](https://github.com/lalalune/characterfile/) hinzu |
| 15 | +- Vollständige Discord- und Twitter-Anbindungen, mit Unterstützung für Discord-Sprachkanäle |
| 16 | +- Vollständiges Konversations- und Dokument-RAG-Gedächtnis |
| 17 | +- Kann Links und PDFs lesen, Audio und Videos transkribieren, Gespräche zusammenfassen und mehr |
| 18 | +- Hochgradig erweiterbar - erstellen Sie eigene Aktionen und Clients zur Erweiterung von Elizas Fähigkeiten |
| 19 | +- Unterstützt Open-Source- und lokale Modelle (standardmäßig konfiguriert mit Nous Hermes Llama 3.1B) |
| 20 | +- Unterstützt OpenAI für Cloud-Inferenz auf ressourcenschonenden Geräten |
| 21 | +- "Ask Claude"-Modus für komplexere Anfragen an Claude |
| 22 | +- 100% Typescript |
| 23 | + |
| 24 | +# Erste Schritte |
| 25 | + |
| 26 | +**Voraussetzungen (ERFORDERLICH):** |
| 27 | + |
| 28 | +- [Node.js 23+](https://docs.npmjs.com/downloading-and-installing-node-js-and-npm) |
| 29 | +- [pnpm](https://pnpm.io/installation) |
| 30 | + |
| 31 | +### .env-Datei bearbeiten |
| 32 | + |
| 33 | +- Kopieren Sie .env.example zu .env und füllen Sie die entsprechenden Werte aus |
| 34 | +- Bearbeiten Sie die TWITTER-Umgebungsvariablen, um Benutzernamen und Passwort Ihres Bots hinzuzufügen |
| 35 | + |
| 36 | +### Charakterdatei bearbeiten |
| 37 | + |
| 38 | +- Überprüfen Sie die Datei `src/core/defaultCharacter.ts` - Sie können diese modifizieren |
| 39 | +- Sie können auch Charaktere mit dem Befehl `pnpm start --characters="path/to/your/character.json"` laden und mehrere Bots gleichzeitig ausführen |
| 40 | + |
| 41 | +Nach dem Einrichten der .env-Datei und der Charakterdatei können Sie den Bot mit folgendem Befehl starten: |
| 42 | + |
| 43 | +``` |
| 44 | +pnpm i |
| 45 | +pnpm start |
| 46 | +``` |
| 47 | + |
| 48 | +# Eliza anpassen |
| 49 | + |
| 50 | +### Benutzerdefinierte Aktionen hinzufügen |
| 51 | + |
| 52 | +Um Git-Konflikte im Core-Verzeichnis zu vermeiden, empfehlen wir, benutzerdefinierte Aktionen zu einem `custom_actions` -Verzeichnis hinzuzufügen und sie dann in der `elizaConfig.yaml`-Datei zu konfigurieren. Siehe `elizaConfig.example.yaml` als Beispiel. |
| 53 | + |
| 54 | +## Mit verschiedenen Modellen ausführen |
| 55 | + |
| 56 | +### Mit Llama ausführen |
| 57 | + |
| 58 | +Sie können Llama 70B oder 405B Modelle verwenden, indem Sie die `XAI_MODEL`-Umgebungsvariable auf `meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo` oder `meta-llama/Meta-Llama-3.1-405B-Instruct` setzen. |
| 59 | + |
| 60 | +### Mit Grok ausführen |
| 61 | + |
| 62 | +Sie können Grok-Modelle verwenden, indem Sie die `XAI_MODEL` Umgebungsvariable auf `grok-beta` setzen |
| 63 | + |
| 64 | +### Mit OpenAI ausführen |
| 65 | + |
| 66 | +Sie können OpenAI-Modelle verwenden, indem Sie die `XAI_MODEL` Umgebungsvariable auf `gpt-4o-mini` oder `gpt-4o` setzen |
| 67 | + |
| 68 | +## Zusätzliche Anforderungen |
| 69 | + |
| 70 | +Möglicherweise müssen Sie Sharp installieren. Wenn Sie beim Start einen Fehler sehen, versuchen Sie es mit folgendem Befehl zu installieren: |
| 71 | + |
| 72 | +``` |
| 73 | +pnpm install --include=optional sharp |
| 74 | +``` |
| 75 | + |
| 76 | +# Umgebungseinrichtung |
| 77 | + |
| 78 | +Sie müssen Umgebungsvariablen in Ihrer .env-Datei hinzufügen, um sich mit verschiedenen Plattformen zu verbinden: |
| 79 | + |
| 80 | +``` |
| 81 | +# Erforderliche Umgebungsvariablen |
| 82 | +DISCORD_APPLICATION_ID= |
| 83 | +DISCORD_API_TOKEN= # Bot-Token |
| 84 | +OPENAI_API_KEY=sk-* # OpenAI API-Schlüssel, beginnt mit sk- |
| 85 | +ELEVENLABS_XI_API_KEY= # API-Schlüssel von Elevenlabs |
| 86 | +
|
| 87 | +# ELEVENLABS EINSTELLUNGEN |
| 88 | +ELEVENLABS_MODEL_ID=eleven_multilingual_v2 |
| 89 | +ELEVENLABS_VOICE_ID=21m00Tcm4TlvDq8ikWAM |
| 90 | +ELEVENLABS_VOICE_STABILITY=0.5 |
| 91 | +ELEVENLABS_VOICE_SIMILARITY_BOOST=0.9 |
| 92 | +ELEVENLABS_VOICE_STYLE=0.66 |
| 93 | +ELEVENLABS_VOICE_USE_SPEAKER_BOOST=false |
| 94 | +ELEVENLABS_OPTIMIZE_STREAMING_LATENCY=4 |
| 95 | +ELEVENLABS_OUTPUT_FORMAT=pcm_16000 |
| 96 | +
|
| 97 | +TWITTER_DRY_RUN=false |
| 98 | +TWITTER_USERNAME= # Kontoname |
| 99 | +TWITTER_PASSWORD= # Kontopasswort |
| 100 | +TWITTER_EMAIL= # Konto-E-Mail |
| 101 | +TWITTER_COOKIES= # Konto-Cookies |
| 102 | +
|
| 103 | +X_SERVER_URL= |
| 104 | +XAI_API_KEY= |
| 105 | +XAI_MODEL= |
| 106 | +
|
| 107 | +# Für Anfragen an Claude |
| 108 | +ANTHROPIC_API_KEY= |
| 109 | +
|
| 110 | +WALLET_SECRET_KEY=EXAMPLE_WALLET_SECRET_KEY |
| 111 | +WALLET_PUBLIC_KEY=EXAMPLE_WALLET_PUBLIC_KEY |
| 112 | +
|
| 113 | +BIRDEYE_API_KEY= |
| 114 | +
|
| 115 | +SOL_ADDRESS=So11111111111111111111111111111111111111112 |
| 116 | +SLIPPAGE=1 |
| 117 | +SOLANA_RPC_URL=https://api.mainnet-beta.solana.com |
| 118 | +HELIUS_API_KEY= |
| 119 | +
|
| 120 | +## Telegram |
| 121 | +TELEGRAM_BOT_TOKEN= |
| 122 | +
|
| 123 | +TOGETHER_API_KEY= |
| 124 | +``` |
| 125 | + |
| 126 | +# Lokale Inferenz-Einrichtung |
| 127 | + |
| 128 | +### CUDA-Einrichtung |
| 129 | + |
| 130 | +Wenn Sie eine NVIDIA-GPU haben, können Sie CUDA installieren, um die lokale Inferenz drastisch zu beschleunigen. |
| 131 | + |
| 132 | +``` |
| 133 | +pnpm install |
| 134 | +npx --no node-llama-cpp source download --gpu cuda |
| 135 | +``` |
| 136 | + |
| 137 | +Stellen Sie sicher, dass Sie das CUDA Toolkit einschließlich cuDNN und cuBLAS installiert haben. |
| 138 | + |
| 139 | +### Lokal ausführen |
| 140 | + |
| 141 | +Fügen Sie XAI_MODEL und setzen Sie es auf eine der oben genannten Optionen aus [Mit Llama ausführen](#run-with-llama) - Sie können X_SERVER_URL und XAI_API_KEY leer lassen, es lädt das Modell von Huggingface herunter und fragt es lokal ab. |
| 142 | + |
| 143 | +# Clients |
| 144 | + |
| 145 | +## Discord Bot |
| 146 | + |
| 147 | +Hilfe beim Einrichten Ihres Discord-Bots finden Sie hier: https://discordjs.guide/preparations/setting-up-a-bot-application.html |
| 148 | + |
| 149 | +# Entwicklung |
| 150 | + |
| 151 | +## Tests |
| 152 | + |
| 153 | +Um die Testsuite auszuführen: |
| 154 | + |
| 155 | +```bash |
| 156 | +pnpm test # Tests einmal ausführen |
| 157 | +pnpm test:watch # Tests im Watch-Modus ausführen |
| 158 | +``` |
| 159 | + |
| 160 | +Für datenbankspezifische Tests: |
| 161 | + |
| 162 | +```bash |
| 163 | +pnpm test:sqlite # Tests mit SQLite ausführen |
| 164 | +pnpm test:sqljs # Tests mit SQL.js ausführen |
| 165 | +``` |
| 166 | + |
| 167 | +Tests werden mit Jest geschrieben und befinden sich in `src/**/*.test.ts`-Dateien. Die Testumgebung ist konfiguriert für: |
| 168 | + |
| 169 | +- Laden von Umgebungsvariablen aus `.env.test` |
| 170 | +- 2-Minuten-Timeout für länger laufende Tests |
| 171 | +- Unterstützung von ESM-Modulen |
| 172 | +- Sequentielle Testausführung (--runInBand) |
| 173 | + |
| 174 | +Um neue Tests zu erstellen, fügen Sie eine `.test.ts`-Datei neben dem zu testenden Code hinzu. |
0 commit comments