Benutzer-Werkzeuge

Webseiten-Werkzeuge


elo:vergleich_von_ki_modellen

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
elo:vergleich_von_ki_modellen [2026/02/10 14:28] – [Mistral] 84.20.184.166elo:vergleich_von_ki_modellen [2026/03/09 21:28] (aktuell) 84.20.184.166
Zeile 7: Zeile 7:
 Vorteile: wenig herumspielen mit Prompt-Engineering, wenn man weiß was man tut. Vorteile: wenig herumspielen mit Prompt-Engineering, wenn man weiß was man tut.
  
-Nachteile: natürlich nicht lokal hostbar, abgesehen, dass man es nicht bekommt, wären die Anforderungen auch dem entsprechend hoch. RAG ist natürlich möglich, der Implementationsaufwand übersteigt hier aber RAG mit Ollama und Kernelmemory, bei dem hier Daten einfach übergeben werden. Hier muss beim RAG in verschiedensten Datenquellen unterschieden werden. Zudem verursacht das Hosten der Indexdaten dann doch üppige Storage Kosten. 160GB schlagen hier mit 200-300 EUR zu Buche.+Nachteile: natürlich nicht lokal hostbar, abgesehen, dass man es nicht bekommt, wären die Anforderungen auch dem entsprechend hoch. RAG ist natürlich möglich, der Implementationsaufwand übersteigt hier aber RAG mit Ollama und Kernelmemory, bei dem hier Daten einfach übergeben werden. Hier muss beim RAG in verschiedensten Datenquellen unterschieden werden. Zudem verursacht das Hosten der Indexdaten dann doch üppige Storage Kosten. 160GB schlagen hier mit 200-300 EUR zu Buche, man muss hier also sehr gut überlegen, was man in die Cloud packt und was nicht. Hier sind Routinen von Vorteil, die das auch taxieren können
  
 ==== Mistral ==== ==== Mistral ====
  
-Mistral ist an und für sich ein gutes und brauchbares KI-Modell, das man freilich auch lokal hosten kann. Mit einer 5060 Ti und 32 GB fetzt das Ding eigentlich problemlos. Vor allem für semantische Suchen und lokales RAG durchaus eine gangbare Variante. +Mistral ist an und für sich ein gutes und brauchbares KI-Modell, das man freilich auch lokal hosten kann. Mit einer 5060 Ti und 32 GB fetzt das Ding eigentlich problemlos. Vor allem für semantische Suchen und lokales RAG durchaus eine gangbare Variante. Allerdings muss man hier sagen, dass vor allem für RAG in der Praxis Mistral, wahrscheinlich auch jedes andere verfügbare Modell eher den "Premium-Modellen" unterlegen sein wird. Obwohl das Modell Daten per Vektordatenbank oder Kernelmemory erhält schafft es das Modell einfach nicht, die Dinge in einen passenden Zusammenhang zu bringen und eine halbwegs sinnvoll Auskunft zu erteilen. GPT-5-Nano hat hier keine Probleme und schafft dies mühelos.
  
 Nachteil: wenn der Druck auf das Modell steigt zeigen sich aber folgende Probleme: Nachteil: wenn der Druck auf das Modell steigt zeigen sich aber folgende Probleme:
Zeile 34: Zeile 34:
       * Fehler 4: Add-VMHardDiskDrive veraltet --> benötigt New-VHD davor zum Anlegen neuer Disks       * Fehler 4: Add-VMHardDiskDrive veraltet --> benötigt New-VHD davor zum Anlegen neuer Disks
       * Fehler 5: kein Connect Parameter mehr bei Set-VMDvdDrive       * Fehler 5: kein Connect Parameter mehr bei Set-VMDvdDrive
 +      * Fehler 6: Set-VMDvdDrive ist falsch, richtig wäre Add-VMDvdDrive
       * Defizit 1: keine Generation 2 Angabe bei New-VM (legt immer Generation 1 an)       * Defizit 1: keine Generation 2 Angabe bei New-VM (legt immer Generation 1 an)
       * Gesamt: vom Ansatz her ok, sah auch nett aus. Aber im Grunde dann doch eher Recherche notwendig       * Gesamt: vom Ansatz her ok, sah auch nett aus. Aber im Grunde dann doch eher Recherche notwendig
  
elo/vergleich_von_ki_modellen.1770733690.txt.gz · Zuletzt geändert: 2026/02/10 14:28 von 84.20.184.166