Seite 28 von 29
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Fr Mär 13, 2026 9:25 pm
von AndererStefan
Jain. Der Link lässt mich den Eindruck gewinnen, dass die LLM gestützte Entwicklung von Logiken beim TWS auf einem sehr guten Weg ist und einen deutlichen Entwicklungsvorsprung hat.
Es wäre für den TWS hilfreich diesen Vorsprung beizubehalten und rechtzeitig auch den nächsten Schritt zu gehen. - Das LLM sollte irgendwie als Service in den TWS rein oder an den TWS angedockt werden.
VG Stefan
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Sa Mär 14, 2026 12:47 am
von gbglace
Ja aber wie die Kosten da abrechnen. Der HS Service wird ja auch von einem Community-Betreiber nicht Gira betreiben und später dort dann auch in irgendeiner Form abgerechnet werden. Das wir der sich da auch nicht leisten können mit einem Account da mtl. sämtliche Anfragen bearbeiten zu lassen. Ich bin gerade dabei mir LLMs lokal zu installieren und dann lokal gegen die Grafikkarte laufen zu lassen. Mit einer 32GB VRAM Karte kann man da schon was sinnvolles mit einem so detaillierten Kanon rechnen lassen von den mittelgroßen Modellen.
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Sa Mär 14, 2026 8:23 am
von AndererStefan
Gute Frage! Hab ich noch nich drüber nachgedacht.
Vorweg: Ich habe keinen Einblick hinter die Kulissen und wer mit wem, was und wie….
Als Addon, zusätzliches Abo oder als Zahlung per Logik fände ich das schwierig. Es sollte ein möglichst großer Kundenkreis erreicht werden. Gleichzeitig muss klar sein, dass die Verantwortung für das Ergebnis beim Kunden/Anwender liegt. Diskussionen mit dem „Anbieter“ der LLM-Dienstleistung, ob eine Logik nun funktioniert oder nicht und woran das liegt dürfen gar nicht erst entstehen.
Aus Endkundensicht fände ich am angenehmsten wenn das in der TWS-Wartung enthalten wäre. Ich denke das würde die Wettbewerbsfähigkeit des TWS stärken und die Akzeptanz von regelmäßigen Zahlungen für Wartungsverträge verbessern.
Es könnten pro Monat x-Token gratis inkludiert sein. Wer das sehr intensiv oder beruflich nutzt, sollte Token-Paket dazu kaufen können.
Aus technischer Sicht müsste man außerdem den „Kanon“ schützen und sicherstellen, das dass LLM den nicht ausspuckt.
Soweit meine Gedanken dazu…
VG Stefan
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Sa Mär 14, 2026 10:15 am
von eib-eg
@AndererStefan
Die Überlegungen stehen schon länger im Raum
Frag doch mal Stefan ob er dein llm im wolf implementiert da mein Kanon zu blumige Aussagen macht.
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Sa Mär 14, 2026 9:45 pm
von AndererStefan
Hi,
@eib-eg ja, die Bedenken von StefanW teile ich…. Aber ich glaube, du bist mit deinem LLM inhaltlich weiter entwickelt als „MetaPro“. Ich habe bisher daran nichts mehr verbessert, weil ich keine Anwendungen habe (…also eigentlich schon, aber ich hatte noch keine Muße die anzugehen).
Mein Ansatz wäre daher zu versuchen die sprachlichen Eigenschaften von MetaPro auf deinen Kanon zu übertragen. Ein paar Ideen fürs Vorgehen hätte ich direkt… - Wieviel hast du/ habt ihr in dieser Richtung schon versucht?
Gibt es eine Alternative zu der Whatsapp-Gruppe? - Das Zeug kommt mir nicht aufs Handy.
VG
Stefan
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Sa Mär 14, 2026 10:10 pm
von eib-eg
zur info dieser text wurde von einer meschlichen ki geschrieben und nicht auf satzbau oder rechtschreibfehler geachtet
die aktuelle version 8.01.01 wird gerade erstellt
was alles enthalten ist, ist in meinen augen sehr viel
da aber zu wenige logiken angefordert haben kann ich nicht einschätzen ob er zu 95% oder 98% oder 99,5% perfekte logiken ausgibt
mein (also vom kanon 8.01.01) wissen basiert auf die von mir erstellten logiken die die ki erstellt hat
dein vorgehen wie ihr das llm schreibt basiert auf anderem als ich es gemacht habe
ihr habt auf tokensparen gesetzt ich setze auf qualität was rauskommt an logiken
sowie ich sie mit diversen sachen füttere
aber wenn du genauere infos willst
komm doch beim usertreffen vorbei
da kann ich dir alle einzelheiten "mündlich" nicht hier im forum weitergeben
die tricks wie wo wann was und vorallem warum
wenn du das verstanden hast
dann kommt vermutlich der ahaeffekt bei dir
die blumensprache wie du sie nennst hat einen bestimmten grund den du in meinen augen nicht verstehen magst oder kannst
aber ich habe es extra wegen dir abgestellt
in der hoffnung das du keinen augenkrebs mit meinen rechtschreibfehlern bekommst wie einer mal zu mir gesagt hatte
mfg
eib-eg Georg
ps.:
ah bevor ichs vergesse
wer rechtschreibfehler findt kann sie gerne behlten
genau so die zu 99,9% perfektgeschriebenen logiken vom kanon 8.01.01 incl anleitung
pps.:
und wenn ich mir überlege wie viele stunden ich für den kanon investiert habe , so durchschnittlich ohne übertreibung so ca 2-3h am tag seit dem ersten beitrag hir
und heute ist ein tag der nur einmal im jahr ist

Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Di Mär 17, 2026 10:48 am
von Sunshinemaker
gbglace hat geschrieben: ↑Sa Mär 14, 2026 12:47 am
Ja aber wie die Kosten da abrechnen.
Grundsätzlich gibt es bestimmt die Möglichkeit eine Verbindung zu einem LLM zu schaffen per API. Dann könnte man die Anfrage im TWS schreiben und dieser übergibt diese per API zusammen mit dem Kanon an die LLM. Und dann ist jeder User selbst dafür zuständig ob er beim LLM Anbieter ein Premium bucht oder er einen Free-Account nutzt und dann ggf. nur eine Anfrage starten kann.
Ist nur die Frage ob der Kanon dann sichtbar mit übergeben wird oder ob es eine Möglichkeit gibt dieses quasi für den User unsichtbar mit zu übergeben.
Dann bekommt ElabNET einen kleinen Beitrag für bereitstellen des Kanon und einrichten der API-Verbindung und die Abrechnung mit dem LLM-Anbieter liegt beim jeweiligen User selbst. So als Idee.
Problem sehe ich dabei dann nur das der User Erwartungen hat und wenn der Promt bzw. besser gesagt die KI nicht das gewünschte Ergebnis liefert steht der User wieder bei ElabNET auf der Matte. Sollte man sich vorher Gedanken zu machen wie man das problem löst.
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Di Mär 17, 2026 1:01 pm
von eib-eg
Das Hauptproblem ist was der Kunde will
Denn einige denken nicht an verschiedene Szenarien was passieren könnte sondern nur an das eine was als Ergebnis rauskommen soll
Bevor ich jetzt da einen ellenlangen Beitrag schreibe
Was würde der Kunde kaufen wenn er wüsste was er bräuchte
Die ki muss oder müsste an verschiedene Szenarien hinweisen wo der Kunde sprich User nicht dran denkt
Ergo die ki müsste widerum eine beratende Funktion haben
Als reine Rechenaufgabe ist klar
Aber komplexe Steuerungen in meinen Augen nur mit Beratung
Sowie alles der ki geben um die Zusammenhänge verständlicher und klarer der ki zu werden
Somit kann sie besser beraten
Weiter geht es die wenigsten werden an alles denken
Jeder Beruf denkt an was anderes was ihm wichtig ist bei der Erstellung einer Logik
Ob die Zusammenhänge passen sei dahingestellt
Ich habe auch viel mit der ki gelernt und deswegen gebe ich diese Tips mit um auch zwischen den Zeilen lesen zu können.
mfg
eib-eg. Georg
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Di Mär 17, 2026 6:46 pm
von chtonian
@georg, welchen vector Storage verwendest du denn für dein RAG? Ich bastel gerade selbst an einen n8n Flow, der auf Basis meiner Emailkorrespondenz mit Kunden zum Support eines von mir entwickelten Plugins selbst Support Anfragen in Zukunft beantworten kann. Die Erfahrungen die ich auf dem Weg gesammelt habe, könnten wir ja mal zusammengießen. Ich könnte mir durchaus vorstellen, dass mit dem ganzen Knowhow aus dem Forum sowie der Jira durchaus ein relativ genauer Antwortbot bzw. Logikengenerator Bot entstehen könnte, der den gesamten Supportaufwand von Elab vermutlich deutlichst reduzieren könnte (vgl. hierzu das Video von Stefan vom Sonntag)
Re: [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken
Verfasst: Di Mär 17, 2026 8:03 pm
von eib-eg
@chtonian
Du willst genaueres wissen

Schreibe mir eine pn