Hilfe

KI-Modelle (LLMs) in RAGFlow hinzufügen

Bevor Ihre KI Antworten generieren kann, müssen Modelle verbunden werden. RAGFlow unterstützt verschiedene Anbieter und Modelltypen.

Öffnen Sie dazu die Modelleinstellungen, in dem Sie ganz oben rechts auf das kleine Icon mit Ihrem Buchstaben klicken und dann links im Menü den Punkt „Modellanbieter“ wählen.


Schritt 1 — Modellanbieter hinzufügen

Im Bereich „Hinzugefügte Modelle“ können Sie Anbieter verbinden, z. B.:

  • OpenAI-kompatible APIs
  • lokale Modelle
  • Drittanbieter-LLMs

Klicken Sie auf:

„Modell hinzufügen“

und hinterlegen Sie den entsprechenden API-Key.

Sie haben, je nach Modell, die Möglichkeit den Modelltyp je nach Use-Case zu bestimmen.


Schritt 2 — Standardmodelle festlegen

Im oberen Bereich „Standardmodelle festlegen“ definieren Sie, welches Modell für welchen Zweck genutzt wird:

  • Chat-Modell → Antwortgenerierung
  • Embedding-Modell → Vektorisierung von Dokumenten
  • Rerank-Modell → Ergebnispriorisierung
  • TTS-Modell → Sprachsynthese (optional)


Schritt 3 — Modell auswählen

Sobald Anbieter verbunden sind, erscheinen verfügbare Modelle rechts in der Liste.
Diese können dann in den Dropdowns als Standard gesetzt werden.

Best Practice Empfehlung:

  • leistungsstarkes Modell für Chat
  • günstigeres Modell für Embeddings

So optimieren Sie Kosten und Performance gleichzeitig.


Fertig — Sie können starten

Sobald Modelle konfiguriert sind und Daten hochgeladen wurden, ist Ihr System einsatzbereit.
Sie können nun:

  • Fragen stellen
  • Dokumente durchsuchen
  • interne Prozesse automatisieren