Skip to content

Commit 847d915

Browse files
committed
update docs
1 parent a3ebfff commit 847d915

File tree

798 files changed

+17725
-32336
lines changed

Some content is hidden

Large Commits have some content hidden by default. Use the searchbox below for content that may be hidden.

798 files changed

+17725
-32336
lines changed

docs/README.md

+18-15
Original file line numberDiff line numberDiff line change
@@ -1,16 +1,16 @@
11
# Eliza - Multi-agent simulation framework
22

3-
# https://github.com/ai16z/eliza
3+
# https://github.com/elizaOS/eliza
44

55
# Visit https://eliza.builders for support
66

77
## 🌍 README Translations
88

9-
[中文说明](./README_CN.md) | [Français](./README_FR.md) | [ไทย](./README_TH.md)
9+
[中文说明](./README_CN.md) | [Deutsch](./README_DE.md) | [Français](./README_FR.md) | [ไทย](./README_TH.md) | [Español](README_ES.md)
1010

1111
# dev branch
1212

13-
<img src="./docs/static/img/eliza_banner.jpg" alt="Eliza Banner" width="100%" />
13+
<img src="static/img/eliza_banner.jpg" alt="Eliza Banner" width="100%" />
1414

1515
_As seen powering [@DegenSpartanAI](https://x.com/degenspartanai) and [@MarcAIndreessen](https://x.com/pmairca)_
1616

@@ -59,15 +59,15 @@ To avoid git clashes in the core directory, we recommend adding custom actions t
5959

6060
### Run with Llama
6161

62-
You can run Llama 70B or 405B models by setting the `XAI_MODEL` environment variable to `meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo` or `meta-llama/Meta-Llama-3.1-405B-Instruct`
62+
You can run Llama 70B or 405B models by setting the environment variable for a provider that supports these models. Llama is also supported locally if no other provider is set.
6363

6464
### Run with Grok
6565

66-
You can run Grok models by setting the `XAI_MODEL` environment variable to `grok-beta`
66+
You can run Grok models by setting the `GROK_API_KEY` environment variable to your Grok API key and setting grok as the model provider in your character file.
6767

6868
### Run with OpenAI
6969

70-
You can run OpenAI models by setting the `XAI_MODEL` environment variable to `gpt-4o-mini` or `gpt-4o`
70+
You can run OpenAI models by setting the `OPENAI_API_KEY` environment variable to your OpenAI API key and setting openai as the model provider in your character file.
7171

7272
## Additional Requirements
7373

@@ -102,11 +102,6 @@ TWITTER_DRY_RUN=false
102102
TWITTER_USERNAME= # Account username
103103
TWITTER_PASSWORD= # Account password
104104
TWITTER_EMAIL= # Account email
105-
TWITTER_COOKIES= # Account cookies
106-
107-
X_SERVER_URL=
108-
XAI_API_KEY=
109-
XAI_MODEL=
110105
111106
112107
# For asking Claude stuff
@@ -119,7 +114,7 @@ BIRDEYE_API_KEY=
119114
120115
SOL_ADDRESS=So11111111111111111111111111111111111111112
121116
SLIPPAGE=1
122-
RPC_URL=https://api.mainnet-beta.solana.com
117+
SOLANA_RPC_URL=https://api.mainnet-beta.solana.com
123118
HELIUS_API_KEY=
124119
125120
@@ -144,9 +139,7 @@ Make sure that you've installed the CUDA Toolkit, including cuDNN and cuBLAS.
144139

145140
### Running locally
146141

147-
Add XAI_MODEL and set it to one of the above options from [Run with
148-
Llama](#run-with-llama) - you can leave X_SERVER_URL and XAI_API_KEY blank, it
149-
downloads the model from huggingface and queries it locally
142+
By default, the bot will download and use a local model. You can change this by setting the environment variables for the model you want to use.
150143

151144
# Clients
152145

@@ -180,3 +173,13 @@ Tests are written using Jest and can be found in `src/**/*.test.ts` files. The t
180173
- Run tests in sequence (--runInBand)
181174

182175
To create new tests, add a `.test.ts` file adjacent to the code you're testing.
176+
177+
## Docs Updates
178+
179+
Please make sure to verify if the documentation provided is correct. In order to do so, please run the docs service.
180+
181+
```console
182+
docker compose -f docker-compose-docs.yaml up --build
183+
```
184+
185+
The docusaurus server will get started and you can verify it locally at https://localhost:3000/eliza.

docs/README_CN.md

+2-4
Original file line numberDiff line numberDiff line change
@@ -30,7 +30,7 @@
3030

3131
### 编辑.env文件
3232

33-
- - 将 .env.example 复制为 .env 并填写适当的值
33+
- - 将 .env.example 复制为 .env 并填写适当的值
3434
- 编辑推特环境并输入你的推特账号和密码
3535

3636
### 编辑角色文件
@@ -94,9 +94,7 @@ TWITTER_DRY_RUN=false
9494
TWITTER_USERNAME= # Account username
9595
TWITTER_PASSWORD= # Account password
9696
TWITTER_EMAIL= # Account email
97-
TWITTER_COOKIES= # Account cookies
9897
99-
X_SERVER_URL=
10098
XAI_API_KEY=
10199
XAI_MODEL=
102100
@@ -119,7 +117,7 @@ BIRDEYE_API_KEY=
119117
120118
SOL_ADDRESS=So11111111111111111111111111111111111111112
121119
SLIPPAGE=1
122-
RPC_URL=https://api.mainnet-beta.solana.com
120+
SOLANA_RPC_URL=https://api.mainnet-beta.solana.com
123121
HELIUS_API_KEY=
124122
125123

docs/README_DE.md

+174
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,174 @@
1+
# Eliza - Multi-Agent-Simulationsframework
2+
3+
# https://github.com/elizaos/eliza
4+
5+
# Besuchen Sie https://eliza.builders für Support
6+
7+
# dev branch
8+
9+
<img src="./docs/static/img/eliza_banner.jpg" alt="Eliza Banner" width="100%" />
10+
11+
_Wie gesehen bei [@DegenSpartanAI](https://x.com/degenspartanai) und [@MarcAIndreessen](https://x.com/pmairca)_
12+
13+
- Multi-Agent-Simulationsframework
14+
- Fügen Sie beliebig viele einzigartige Charaktere mit [characterfile](https://github.com/lalalune/characterfile/) hinzu
15+
- Vollständige Discord- und Twitter-Anbindungen, mit Unterstützung für Discord-Sprachkanäle
16+
- Vollständiges Konversations- und Dokument-RAG-Gedächtnis
17+
- Kann Links und PDFs lesen, Audio und Videos transkribieren, Gespräche zusammenfassen und mehr
18+
- Hochgradig erweiterbar - erstellen Sie eigene Aktionen und Clients zur Erweiterung von Elizas Fähigkeiten
19+
- Unterstützt Open-Source- und lokale Modelle (standardmäßig konfiguriert mit Nous Hermes Llama 3.1B)
20+
- Unterstützt OpenAI für Cloud-Inferenz auf ressourcenschonenden Geräten
21+
- "Ask Claude"-Modus für komplexere Anfragen an Claude
22+
- 100% Typescript
23+
24+
# Erste Schritte
25+
26+
**Voraussetzungen (ERFORDERLICH):**
27+
28+
- [Node.js 23+](https://docs.npmjs.com/downloading-and-installing-node-js-and-npm)
29+
- [pnpm](https://pnpm.io/installation)
30+
31+
### .env-Datei bearbeiten
32+
33+
- Kopieren Sie .env.example zu .env und füllen Sie die entsprechenden Werte aus
34+
- Bearbeiten Sie die TWITTER-Umgebungsvariablen, um Benutzernamen und Passwort Ihres Bots hinzuzufügen
35+
36+
### Charakterdatei bearbeiten
37+
38+
- Überprüfen Sie die Datei `src/core/defaultCharacter.ts` - Sie können diese modifizieren
39+
- Sie können auch Charaktere mit dem Befehl `pnpm start --characters="path/to/your/character.json"` laden und mehrere Bots gleichzeitig ausführen
40+
41+
Nach dem Einrichten der .env-Datei und der Charakterdatei können Sie den Bot mit folgendem Befehl starten:
42+
43+
```
44+
pnpm i
45+
pnpm start
46+
```
47+
48+
# Eliza anpassen
49+
50+
### Benutzerdefinierte Aktionen hinzufügen
51+
52+
Um Git-Konflikte im Core-Verzeichnis zu vermeiden, empfehlen wir, benutzerdefinierte Aktionen zu einem `custom_actions` -Verzeichnis hinzuzufügen und sie dann in der `elizaConfig.yaml`-Datei zu konfigurieren. Siehe `elizaConfig.example.yaml` als Beispiel.
53+
54+
## Mit verschiedenen Modellen ausführen
55+
56+
### Mit Llama ausführen
57+
58+
Sie können Llama 70B oder 405B Modelle verwenden, indem Sie die `XAI_MODEL`-Umgebungsvariable auf `meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo` oder `meta-llama/Meta-Llama-3.1-405B-Instruct` setzen.
59+
60+
### Mit Grok ausführen
61+
62+
Sie können Grok-Modelle verwenden, indem Sie die `XAI_MODEL` Umgebungsvariable auf `grok-beta` setzen
63+
64+
### Mit OpenAI ausführen
65+
66+
Sie können OpenAI-Modelle verwenden, indem Sie die `XAI_MODEL` Umgebungsvariable auf `gpt-4o-mini` oder `gpt-4o` setzen
67+
68+
## Zusätzliche Anforderungen
69+
70+
Möglicherweise müssen Sie Sharp installieren. Wenn Sie beim Start einen Fehler sehen, versuchen Sie es mit folgendem Befehl zu installieren:
71+
72+
```
73+
pnpm install --include=optional sharp
74+
```
75+
76+
# Umgebungseinrichtung
77+
78+
Sie müssen Umgebungsvariablen in Ihrer .env-Datei hinzufügen, um sich mit verschiedenen Plattformen zu verbinden:
79+
80+
```
81+
# Erforderliche Umgebungsvariablen
82+
DISCORD_APPLICATION_ID=
83+
DISCORD_API_TOKEN= # Bot-Token
84+
OPENAI_API_KEY=sk-* # OpenAI API-Schlüssel, beginnt mit sk-
85+
ELEVENLABS_XI_API_KEY= # API-Schlüssel von Elevenlabs
86+
87+
# ELEVENLABS EINSTELLUNGEN
88+
ELEVENLABS_MODEL_ID=eleven_multilingual_v2
89+
ELEVENLABS_VOICE_ID=21m00Tcm4TlvDq8ikWAM
90+
ELEVENLABS_VOICE_STABILITY=0.5
91+
ELEVENLABS_VOICE_SIMILARITY_BOOST=0.9
92+
ELEVENLABS_VOICE_STYLE=0.66
93+
ELEVENLABS_VOICE_USE_SPEAKER_BOOST=false
94+
ELEVENLABS_OPTIMIZE_STREAMING_LATENCY=4
95+
ELEVENLABS_OUTPUT_FORMAT=pcm_16000
96+
97+
TWITTER_DRY_RUN=false
98+
TWITTER_USERNAME= # Kontoname
99+
TWITTER_PASSWORD= # Kontopasswort
100+
TWITTER_EMAIL= # Konto-E-Mail
101+
TWITTER_COOKIES= # Konto-Cookies
102+
103+
X_SERVER_URL=
104+
XAI_API_KEY=
105+
XAI_MODEL=
106+
107+
# Für Anfragen an Claude
108+
ANTHROPIC_API_KEY=
109+
110+
WALLET_SECRET_KEY=EXAMPLE_WALLET_SECRET_KEY
111+
WALLET_PUBLIC_KEY=EXAMPLE_WALLET_PUBLIC_KEY
112+
113+
BIRDEYE_API_KEY=
114+
115+
SOL_ADDRESS=So11111111111111111111111111111111111111112
116+
SLIPPAGE=1
117+
SOLANA_RPC_URL=https://api.mainnet-beta.solana.com
118+
HELIUS_API_KEY=
119+
120+
## Telegram
121+
TELEGRAM_BOT_TOKEN=
122+
123+
TOGETHER_API_KEY=
124+
```
125+
126+
# Lokale Inferenz-Einrichtung
127+
128+
### CUDA-Einrichtung
129+
130+
Wenn Sie eine NVIDIA-GPU haben, können Sie CUDA installieren, um die lokale Inferenz drastisch zu beschleunigen.
131+
132+
```
133+
pnpm install
134+
npx --no node-llama-cpp source download --gpu cuda
135+
```
136+
137+
Stellen Sie sicher, dass Sie das CUDA Toolkit einschließlich cuDNN und cuBLAS installiert haben.
138+
139+
### Lokal ausführen
140+
141+
Fügen Sie XAI_MODEL und setzen Sie es auf eine der oben genannten Optionen aus [Mit Llama ausführen](#run-with-llama) - Sie können X_SERVER_URL und XAI_API_KEY leer lassen, es lädt das Modell von Huggingface herunter und fragt es lokal ab.
142+
143+
# Clients
144+
145+
## Discord Bot
146+
147+
Hilfe beim Einrichten Ihres Discord-Bots finden Sie hier: https://discordjs.guide/preparations/setting-up-a-bot-application.html
148+
149+
# Entwicklung
150+
151+
## Tests
152+
153+
Um die Testsuite auszuführen:
154+
155+
```bash
156+
pnpm test # Tests einmal ausführen
157+
pnpm test:watch # Tests im Watch-Modus ausführen
158+
```
159+
160+
Für datenbankspezifische Tests:
161+
162+
```bash
163+
pnpm test:sqlite # Tests mit SQLite ausführen
164+
pnpm test:sqljs # Tests mit SQL.js ausführen
165+
```
166+
167+
Tests werden mit Jest geschrieben und befinden sich in `src/**/*.test.ts`-Dateien. Die Testumgebung ist konfiguriert für:
168+
169+
- Laden von Umgebungsvariablen aus `.env.test`
170+
- 2-Minuten-Timeout für länger laufende Tests
171+
- Unterstützung von ESM-Modulen
172+
- Sequentielle Testausführung (--runInBand)
173+
174+
Um neue Tests zu erstellen, fügen Sie eine `.test.ts`-Datei neben dem zu testenden Code hinzu.

0 commit comments

Comments
 (0)