Fehlerbehebung

Chat bricht sofort mit Fehlermeldung ab

Kriterien

  • Ist ein Modell für jede Rolle ausgewählt unter "..."-Menü > Chatbot bearbeiten und pro Rolle Einstellungen > Modell
  • Bei zwei oder mehr Rollen: ist unter Supervisor > Modell ein Modell ausgewählt?

Problem

Fehlendes oder fehlerhaftes Modell

Lösung

Wenn kein Modell ausgewählt ist, unbedingt ein Modell auswählen. Sollte ein Modell ausgewählt sein, kann dieses eventuell fehlerhaft sein. Dies lässt sich ausschließen ob der Fehler immer noch existiert, wenn alle Modelle geändert worden sind.


Kriterien

  • Ist ein System-Modell ausgewählt unter Einstellungen > System ?

Problem

Fehlendes oder fehlerhaftes Modell

Lösung

Das System-Modell ist wichtig für die Unterstützung interner Prozesse. Ein System-Modell auswählen, welches “Tools” unterstützt (siehe installierte Modelle unter Modelle )


Kriterien

  • Ist das Status-Symbol “Modell Laufzeit” unter Einstellungen > Allgemein grün?
  • Werden die Modelle unter Modelle angezeigt?

Problem

Die LLM Laufzeit scheint nicht zu funktionieren bzw hat sie keine Verbindung zur Web-App

Lösung

Die Box neustarten mit folgender XRAG-Datei

Sollte das Problem nach dem Neustart immer noch bestehen gibt es ein Problem bei der Initialisierung der Modell Laufzeit.

Achtung: folgender fortgeschrittener Lösungsweg benötigt Erfahrung als Systemadministrator:in und Zugriff auf das Betriebssystem der Box selbst

Ollama neu installieren mit Brew brew install ollama um die Modell Laufzeit neuzuinstallieren. Auch ohne Internet möglich: zuerst ollama TAR-Ball von brew.sh herunterladen und installieren.