KNX Data Secure Unterstützung
für KNX Logger und KNX Busmonitor

KNX Diagnose Monitor, Import des ETS Projektes deutlich beschleunigt, Suche in der Navigation
Mehr Informationen dazu hier im Forum

Insider Version 6 zur 4.5 jetzt für alle Mitglieder des Insider Clubs installierbar
Alle Infos zum Update im Timberwolf Wiki

[Erfahrungsbericht] [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken

User-Geschichten zu erfolgreichen Projekten wie Migrationen vom Wiregate, Eigenbauten, usw.
Forumsregeln
  • Denke bitte an aussagekräftige Titel und gebe dort auch die [Firmware] an. Wenn ETS oder CometVisu beteiligt sind, dann auch deren Version
  • Bitte mache vollständige Angaben zu Deinem Server, dessen ID und dem Online-Status in Deiner Signatur. Hilfreich ist oft auch die Beschreibung der angeschlossener Hardware sowie die verwendeten Protokolle
  • Beschreibe Dein Projekt und Dein Problem bitte vollständig. Achte bitte darauf, dass auf Screenshots die Statusleiste sichtbar ist
  • Bitte sei stets freundlich und wohlwollend, bleibe beim Thema und unterschreibe mit deinem Vornamen. Bitte lese alle Regeln, die Du hier findest: https://wiki.timberwolf.io/Forenregeln

jhaeberle
Reactions:
Beiträge: 208
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 86 Mal
Danksagung erhalten: 40 Mal

#41

Beitrag von jhaeberle »

Krass… wie die KI redet und euch anfeuert ist schon wieder spooky - obwohl ich da eigentlich ziemlich Technik-Amin bin…

Ich könnte mir vorstellen, dass der Ansatz von @eib-eg der richtige ist: funktionierende, bestenfalls noch ordentlich dokumentierte Logiken zu nehmen und sie der KI zusammen mit der Doku zur Verfügung zu stellen. Das nennt man dann wohl auch in dem Umfeld Knowledge-Base.
Da gibt es dann Ansätze, dass die KI das zum Training verwendet. Sozusagen deine/unsere Spezial-KI zum Wolf… das wäre dann wohl besser/günstiger/effektiver, als das alles bei jedem Prompt neu zusammen zu stellen…

Wir könnten ein GitHub Repository erstellen und da gemeinsam die Fütterung machen. @Franky und @eib-eg können eure KI-Tools auf Git-Repositories zugreifen? Wär das was? Würde vermutlich auch übersichtlicher werden und für spätere Nutzer leichter, um einzusteigen…

Gruß
Jochen
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)

eib-eg
Reactions:
Beiträge: 560
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1560 Mal
Danksagung erhalten: 358 Mal

#42

Beitrag von eib-eg »

Auf deine Frage können eure ki Tools

Stop

Hab lediglich den Link benützt und mir Gedanken gemacht was wie am schnellsten geht

Erfahrungen den ersten Tag gemacht

Am zweiten Tag seht ihr das Ergebnis
TW 2600_99 seit 1.1.2018 / VPN zu

jhaeberle
Reactions:
Beiträge: 208
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 86 Mal
Danksagung erhalten: 40 Mal

#43

Beitrag von jhaeberle »

Welches KI Tool nutzt du denn?
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)

eib-eg
Reactions:
Beiträge: 560
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1560 Mal
Danksagung erhalten: 358 Mal

#44

Beitrag von eib-eg »

Lesen und Link benützen
viewtopic.php?t=5822#p61753
TW 2600_99 seit 1.1.2018 / VPN zu

jhaeberle
Reactions:
Beiträge: 208
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 86 Mal
Danksagung erhalten: 40 Mal

#45

Beitrag von jhaeberle »

Holla!
Warum so unfreundlich? Der Thread enthält viele Links und Downloads, die in Frage kommen… selbst @Franky, der Autor des verlinkten Beitrags, hat dich schon nach dem von dir verwendeten KI-Tool gefragt…
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)

eib-eg
Reactions:
Beiträge: 560
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1560 Mal
Danksagung erhalten: 358 Mal

#46

Beitrag von eib-eg »

Holla sorry
Wollte nur ein schnelles Ziel eingeben das du schneller ans Ziel kommst
Ich arbeite ja auch noch nebenbei und hatte dadurch wenig Zeit, sorry noch mal
TW 2600_99 seit 1.1.2018 / VPN zu

Ersteller
Franky
Reactions:
Beiträge: 174
Registriert: Di Dez 24, 2024 1:24 pm
Hat sich bedankt: 78 Mal
Danksagung erhalten: 93 Mal

#47

Beitrag von Franky »

Wir könnten ein GitHub Repository erstellen und da gemeinsam die Fütterung machen. @Franky und @eib-eg können eure KI-Tools auf Git-Repositories zugreifen? Wär das was? Würde vermutlich auch übersichtlicher werden und für spätere Nutzer leichter, um einzusteigen…
@jhaeberle Ja, die Gedanken hatte ich auch schon.

Stefan hat schon recht ausführlich dazu unter link geschrieben. Und die ElabNET-Lösung werde ich auch nutzen, wenn sie da ist. Ich habe für mich aber beschlossen, meine veröffentlichten Codes (forumsunabhängig) bald erstmal in github oder ähnlichem zu veröffentlichen, bis die offizielle Lösung da ist. Dadurch findet man die Inhalte einfacher, als im Forumthread und Versionshistorie, etc. ist automatisch gepflegt.

Ab dem Zeitpunkt, an dem das spezialisierte Ziel (hier TWS/ElabNET) ein eigenes Repository anbietet, werde ich die Inhalte dort pflegen und bestehenden Inhalt dahin verschieben, damit sie näher am geplanten Einsatzort sind, Synergieeffekte genutzt werden können, etc. Aber ein Forumthread ist irgendwie nicht das richtige Tool für Versionsverwaltung :lol: Stefan muss jetzt aber nicht nervös werden. Ich denke, wenn was spezielles für den TWS / etwas von ElabNET vorhanden ist, werden wir dieses mit Inhalt füllen und als Primärquelle nutzen. :handgestures-thumbup:
funktionierende, bestenfalls noch ordentlich dokumentierte Logiken zu nehmen und sie der KI zusammen mit der Doku zur Verfügung zu stellen. Das nennt man dann wohl auch in dem Umfeld Knowledge-Base. Da gibt es dann Ansätze, dass die KI das zum Training verwendet. Sozusagen deine/unsere Spezial-KI zum Wolf… das wäre dann wohl besser/günstiger/effektiver, als das alles bei jedem Prompt neu zusammen zu stellen…
Ja, ich werde alle Codesamples, dich ich per URL abrufen kann, mit in den Webseitendownloader aufnehmen, der die Datei TWS_Wiki-Logik-Data_For_LLM.zip für die LLM automatisiert erstellt. Durch das Befüllen mit den TWS-Wiki-Inhalten sind schon einige Codebeispiele enthalten. Es muss sich aber noch beweisen, ob ein großes Dokufile für die LLM überhaupt zielführend ist.

Und nicht verwechseln, das ist ja kein "Trainieren"/Erstellen des LLM, sondern ein trainiertes LLM erhält die Infos (die Datei TWS_Wiki-Logik-Data_For_LLM.zip) im Prompt hochgeladen und muss dieses mit dem eigentlichen Prompt in seinem limitieren Kontextfenster halten.

@eib-eg: Stress dich nicht. Ich fand Deinen Post erst auch ein bisschen unhöflich, aber ich glaube ich habe Deine Situation nach deinem letzten Post jetzt ein bisschen verstanden und ich/wir sind empathisch genug, um Dich und uns alle zu unterstützen. Keiner will hier irgendwem was böses (denke ich) :lol:

Edit: @@jhaeberle Du natürlich auch (nicht stressen lassen) :lol:

Gruß

Franky
Edit2: TWS_Wiki-Logik-Data_For_LLM.zip ist scheinbar doch ein bisschen groß und das LLM neigt bei der Größe zum Halluzinieren. Da muss ich noch mal ran, Warnung hiermit vorab gegeben.
Zuletzt geändert von Franky am Sa Mai 03, 2025 9:39 am, insgesamt 9-mal geändert.
Timberwolf 3500L ID:1642; Support-VPN für ElabNET ist an.

eib-eg
Reactions:
Beiträge: 560
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1560 Mal
Danksagung erhalten: 358 Mal

#48

Beitrag von eib-eg »

Hallo zusammen,

anknüpfend an unseren vorherigen Beitrag viewtopic.php?t=5822&start=30#p62101 zur Nutzung eines Referenzcodes für AI-Assistenten bei der Erstellung von Timberwolf Custom Logic, gibt es tolle Neuigkeiten!

Dank der großartigen Mithilfe und des unermüdlichen Testens von eib-eg / Georg (nochmals vielen Dank dafür!) freue ich mich, eine deutlich erweiterte und verbesserte Version unseres Referenzcodes (jetzt V4.0) für die Timberwolf Custom Logic vorzustellen.

Was ist neu und warum ist das nützlich?

Diese neue Version baut auf dem ursprünglichen Konzept auf, ist aber wesentlich umfangreicher und enthält:

1. Viel mehr Module: Es sind jetzt Beispiele für eine breite Palette an Modulen enthalten, darunter Logik-/Zustandsmodule (RS-FF, Latch, Comparator, Xor...), Mathematik (Polynomial, Limiter, CalcFormula, Ratio...), Zeit/Datum (Monoflop, HobbsMeter, Stopwatch, Clock, Cron, Localtime, Astro...), Regelung (PID, Ramp, Lowpass...), String-Operationen (Stringcompare, HEX->INT, Printf, Regex...) und mehr.

2. Integrierte Debugging-Tipps: Direkt im Code-Header finden sich jetzt wertvolle Hinweise zu häufigen Fehlern (Kommasetzung!, undefinierte Variablen, unbekannte Module etc.), die uns beim Entwickeln und Testen oft begegnet sind. Diese "Lessons Learned" sollen euch das Debuggen erleichtern.

3. Verbesserte Kommentare: Der Code ist ausführlicher kommentiert, um die Funktionsweise der einzelnen Blöcke besser zu erklären.

Zweck & Anwendung:

Der Zweck bleibt derselbe und wird durch den erweiterten Code hoffentlich noch besser erfüllt:

Bessere AI-Unterstützung: Gebt diesen Code (aus der angehängten Datei) zu Beginn eines Chats an eine AI (ChatGPT, Claude, etc.). Sie erhält dadurch wichtigen Kontext über die TWS-Syntax und die Vielfalt verfügbarer Module, was zu präziseren und schnelleren Antworten bei euren spezifischen Fragen führen sollte.

Lern- & Nachschlageressource: Der Code dient auch als Nachschlagewerk für die Syntax und grundlegende Verwendung vieler häufig genutzter Module.

Der Code (V4.0):

Der vollständige, kommentierte und erfolgreich im TWS speicherbare Code befindet sich im Anhang.
(Georg wird die Datei anhängen – z.B. TWS_CustomLogic_Reference_V4_0.txt)

Hier zur Vorschau die Debugging-Tipps aus dem Header, die sich als besonders wichtig erwiesen haben:


// WICHTIGE TIPPS & HÄUFIGE FEHLER (Lessons Learned beim Erstellen):
// --------------------------------------------------------------------------
// 1. KOMMASETZUNG ist entscheidend und die häufigste Fehlerquelle!
// a) KEIN Komma nach dem LETZTEN Element in einem Array [...].
// (Betrifft: Letzte Variable in "Level", letztes Modul in "Module", etc.)
// -> Fehler wird oft direkt in dieser Zeile gemeldet (Unexpected comma).
// b) EIN Komma ZWISCHEN den Hauptblöcken (nach `]` des Arrays, vor `"Key"`).
// (Zwischen: Level] , "Module" / Module] , "Input" / Input] , "Output")
// -> FEHLER wird oft erst in der Zeile des *nächsten* Blocks gemeldet!
// c) KEIN Komma nach dem letzten Key-Value-Paar im Hauptobjekt (`}`).
// 2. UNDEFINIERTE VARIABLEN: Jede Variable ($...) MUSS im "Level"-Block
// definiert sein, bevor sie in "Module", "Input" oder "Output" verwendet wird.
// -> Fehler meldet: "... not defined in Level block".
// 3. UNBEKANNTE MODULE: Modulnamen müssen exakt stimmen (Groß/Kleinschreibung!).
// -> Fehler meldet: "Unbekannte Module...".
// 4. DATENTYPEN: Achte auf korrekte Datentypen (float, integer, bool, string).
// Manchmal ist der Server tolerant, manchmal führt es zu Fehlern oder
// unerwartetem Verhalten (z.B. Multiplexer-Index muss integer sein).
// 5. LATCH-MODI & TRIGGER: Verstehe die Latch-Modi (0=Pegel, 1=Flanke+, 2=Flanke-)
// und stelle sicher, dass der Trigger korrekt funktioniert (oft `KonstTrue`).
// 6. STATEFUL MODULE & PERSISTENZ: Module wie Latch, PID, Monoflop, Hobbs,
// Ramp, Comparator(Hyst.) speichern Zustände. Stelle sicher, dass sie
// korrekte Variablen zum Lesen/Schreiben ihres Zustands haben (`_Alt`).
// 7. AUSFÜHRUNGSREIHENFOLGE: Module werden von oben nach unten abgearbeitet.
// Ein Modul kann nur Ergebnisse von Modulen verwenden, die *darüber* stehen.
// 8. PARSER-EMPFINDLICHKEIT: Kommentare an "ungewöhnlichen" Stellen (z.B.
// direkt vor `]`) können *manchmal* stören. Im Zweifel Kommentare verschieben.



Aufruf zur Mithilfe & Weiterentwicklung:

Wir hoffen, dieser erweiterte Code ist eine noch größere Hilfe für euch! Feedback ist natürlich herzlich willkommen! Wenn ihr Fehler findet (trotz unserer Tests!), Verbesserungsvorschläge habt oder weitere wichtige Module/Konzepte kennt, die hier noch fehlen, lasst es uns wissen. Ziel ist weiterhin, diese Wissensbasis gemeinsam zu pflegen und zu erweitern, damit alle davon profitieren können.

Der Code steht unter der TOLL-Lizenz (siehe Header im Code).

Viel Erfolg beim Erstellen eurer Logiken!

Beste Grüße,

Eure AI (unterstützt durch Georg/eib-eg)


TWS_CustomLogic_Reference_V4_0.txt
auch von mir beste Grüße nach ca 6h AI lernen, mfg Georg
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
TW 2600_99 seit 1.1.2018 / VPN zu

Ersteller
Franky
Reactions:
Beiträge: 174
Registriert: Di Dez 24, 2024 1:24 pm
Hat sich bedankt: 78 Mal
Danksagung erhalten: 93 Mal

#49

Beitrag von Franky »

Franky hat geschrieben: Fr Mai 02, 2025 1:54 pm Welches LLM Modell und welche Version davon nimmst Du?
@eib-eg Magst Du das kurz noch angeben?

LG

Franky
Zuletzt geändert von Franky am Sa Mai 03, 2025 9:44 am, insgesamt 1-mal geändert.
Timberwolf 3500L ID:1642; Support-VPN für ElabNET ist an.

jhaeberle
Reactions:
Beiträge: 208
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 86 Mal
Danksagung erhalten: 40 Mal

#50

Beitrag von jhaeberle »

Cool, Georg @eib-eg

Ich habe gestern auch recherchiert, man kann die Tipps aus dem Header in eine Tabelle geben und die KI damit füttern. Scheint effektiver zu sein.
Ist zwar noch kurz, aber das kann ja wachsen… Das AI Studio kann wohl eher nicht direkt mit GIThub, aber Umwege sind wohl môglich.
@Franky, wenn du die KI mit den Grundlagen trainierst und das dann immer wieder verwendest, statt das bei jedem Prompt erneut zu machen, ist das effektiver und damit günstiger, was sich letztlich auch bei dem kostenlosen Modell auf den möglichen Umfang einer Konversation auswirkt.
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)
Antworten

Zurück zu „Erfolgsgeschichten“