Insider Preview IP 1 zur V 4.8 - veröffentlicht

Verehrte Nutzer des Timberwolf Servers. Wir haben die IP1 zur nächsten Hauptversion 4.8 für alle Modelle des Timberwolf Servers freigegeben.

Bild

Diese neue Version enthält eine neue Funktion zum selektiven Löschen von Datenpunkten in ein oder mehreren Zeitserien sowie 16 Verbesserungen und wichtige Fehlerkorrekturen


Insbesondere die neuen Funktionen zum selektiven Löschen in Zeitserien sind sehr wichtig, weil damit erstmals ein Bereinigen sowie ein Kürzen von Zeitserien möglich wird. Damit kann massiv Speicherplatz reduziert werden, womit auch Backup / Restore kürzer wird. Zudem können damit Datenschutzanforderungen umgesetzt werden.

Foren Diskussion: viewtopic.php?t=6070

Release Notes im Wiki: https://elabnet.atlassian.net/wiki/x/AYCEyw


WICHTIG: Dies ist die eine neue Insider Preview im Zyklus 4.8. Mit Installation der letzten Hauptversion 4.5 wurde der Bezug für Insider Versionen zurückgesetzt. Mitglieder im Insider Club müssen daher in der Systemaktualisierung erst den Bezug von Insider Versionen wieder freischalten, damit das Update angezeigt wird.

[Erfahrungsbericht] [V4.5 IP4] Nutzung von KI (LLM) für Dokumentation und Custom-Logiken

User-Geschichten zu erfolgreichen Projekten wie Migrationen vom Wiregate, Eigenbauten, usw.
Forumsregeln
  • Denke bitte an aussagekräftige Titel und gebe dort auch die [Firmware] an. Wenn ETS oder CometVisu beteiligt sind, dann auch deren Version
  • Bitte mache vollständige Angaben zu Deinem Server, dessen ID und dem Online-Status in Deiner Signatur. Hilfreich ist oft auch die Beschreibung der angeschlossener Hardware sowie die verwendeten Protokolle
  • Beschreibe Dein Projekt und Dein Problem bitte vollständig. Achte bitte darauf, dass auf Screenshots die Statusleiste sichtbar ist
  • Bitte sei stets freundlich und wohlwollend, bleibe beim Thema und unterschreibe mit deinem Vornamen. Bitte lese alle Regeln, die Du hier findest: https://wiki.timberwolf.io/Forenregeln

eib-eg
Beiträge: 705
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1627 Mal
Danksagung erhalten: 442 Mal

#241

Beitrag von eib-eg »

Hallo Stefan,@AndererStefan extra für dich und danke an @jensgulow :bow-yellow: für deine Logik zur Analyse

ab hier ki text
_______________

Gerne gebe ich dir und der Community einen Einblick in die Philosophie und die konkreten Härtungen, die wir in unserer internen "Referenz-Anleitung" (dem Kanon) verankert haben. Jede aufgedeckte Herausforderung wird als wertvolles "Geschenk" betrachtet, das uns der angestrebten Perfektion näherbringt.

Ein konkreter Einblick in die Härtung durch Praxis:

Ein aktuelles Beispiel für solch ein "Geschenk" war eine Problemstellung von Jensgulow (Beitrag #239), bei der es um die Berechnung von Wartungsintervallen über Jahresgrenzen hinweg ging. Die ursprüngliche Logik hatte Schwierigkeiten mit der Zeitdifferenzberechnung über den Jahreswechsel und der korrekten String-Formatierung.

Durch die Analyse dieses Problems konnten wir unsere Referenz um folgende Punkte schärfen:

Robuste Zeitberechnung: Wir haben gelernt, dass Zeitdifferenzen über Jahresgrenzen hinweg immer über Unix-Timestamps berechnet werden sollten, um Fehler mit "Tag des Jahres"-Überläufen zu vermeiden.

Fehlerfreie String-Formatierung: Wir haben die Best Practice für Printf-Formatierungen vor der Verkettung mit Concat präzisiert, um unerwünschte Leerzeichen zu eliminieren (z.B. durch die Verwendung von %02d für führende Nullen).

Präzise Localtime-Nutzung: Die korrekte Syntax für die Extraktion von Unix-Timestamps aus dem Localtime-Modul wurde explizit in unserer Referenz verankert.

Diese spezifischen Erkenntnisse sind nun fest in unserer Referenz verankert und stellen sicher, dass zukünftige Logiken für ähnliche Aufgaben von Anfang an robuster und fehlerfreier sind.

Ich freue mich darauf, diese und weitere Erkenntnisse beim Timberwolf User Treffen in Adersberg persönlich zu vertiefen und zu diskutieren.

Viele Grüße,
________________

ende ki text
Georg E. & die KI
(Version 6.08.24)
TW 2600_99 seit 1.1.2018 / VPN zu

eib-eg
Beiträge: 705
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1627 Mal
Danksagung erhalten: 442 Mal

#242

Beitrag von eib-eg »

Kleine Info

Mein promt wurde beim Timberwolf User Treffen mit der Version 6.08.25 an diejenigen weitergegeben die beim Treffen anwenden waren.

Überrascht von den Funktionen habe ich vermutlich jeden.

Warum ist meine Entscheidung so gefallen das nur die beim Treffen Anwesenden Personen den promt bekommen haben, bleibt mir und den Anwesenden durch ausgiebige Gespräche sowie Tests vorbehalten.


Was wie wann wo mit dem promt gemacht wird, wird sozusagen in dieser Gruppe entschieden.

Bitte habt alle die ihn nicht bekommen habt für dies Entscheidung dafür Verständnis.

Es kann sehr gut möglich sein das bald jeder der Logiken erstellen möchte davon profitiert.

Mehr wird aktuell nicht verraten.
TW 2600_99 seit 1.1.2018 / VPN zu

Ersteller
Franky
Beiträge: 197
Registriert: Di Dez 24, 2024 1:24 pm
Hat sich bedankt: 128 Mal
Danksagung erhalten: 95 Mal

#243

Beitrag von Franky »

Somit hat es 242 Beiträge und 7 Monate gedauert, bis ein offener Informationsaustausch droht, sich in eine closed community umzuwandeln. Das ich das als Threadstarter noch erleben darf :lol: :handgestures-thumbdown: War auf jeden Fall nicht das, was ich mir erhofft habe. Nunja, vielleicht finde ich bald ja auch mal wieder Zeit, euch dann "von außen" mit Ideen zu versorgen. ;)

Franky
Zuletzt geändert von Franky am Di Okt 14, 2025 10:29 pm, insgesamt 5-mal geändert.
Timberwolf 3500L ID:1642; Support-VPN für ElabNET ist an.

eib-eg
Beiträge: 705
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1627 Mal
Danksagung erhalten: 442 Mal

#244

Beitrag von eib-eg »

Ich bin überrascht das du die warum Antwort nicht verstanden hast 🤔 die ich dir über WhatsApp geschickt habe.
TW 2600_99 seit 1.1.2018 / VPN zu

Ersteller
Franky
Beiträge: 197
Registriert: Di Dez 24, 2024 1:24 pm
Hat sich bedankt: 128 Mal
Danksagung erhalten: 95 Mal

#245

Beitrag von Franky »

Nun, ich glaube nicht, dass diese Maßnahme zum Erreichen des Ziels beiträgt, dafür wird aber ein offener Informationsaustausch abgewürgt.

Dass Informationen und Daten verwendet werden, die andere in mühevoller Handarbeit erstellt haben (Dokumentation und existierende Logiken), Tools verwendet werden, die man kostenfrei nutzen kann und dann kein reflex von "give it back an die community" hat, ist halt nicht meine Welt.

Jetzt geht es aber nicht primär darum, sondern es verschwinden direkt 13 Leute aus dem Informationsaustausch mit der Allgemeinheit zu dem Thema. Das ist etwas, was mich scheinbar triggert und vermutlich direkt betreffen wird. Aber ich will mal mit dem mimimi aufhören, wollte es halt einmal offen und klar kund tun.

Franky
Zuletzt geändert von Franky am Mi Okt 15, 2025 6:57 am, insgesamt 4-mal geändert.
Timberwolf 3500L ID:1642; Support-VPN für ElabNET ist an.

AndererStefan
Beiträge: 365
Registriert: Sa Mär 02, 2024 11:04 am
Hat sich bedankt: 193 Mal
Danksagung erhalten: 235 Mal

#246

Beitrag von AndererStefan »

Moin,

ich habe keine Ahnung worum es genau geht und was auf dem Treffen besprochen worden ist. Aber der Insiderbereich des Forums war/ist keine Alternative für die Weiterentwicklung?

Naja, wie auch immer. Franky hat mich an etwas erinnert;) und ich teile mal meinen letzten Stand von MetaPro. Es ist ein älterer Abzweig von der Grundlage von @Franky, die ich so umgebaut habe, dass Prompt (LLM Regeln) und Projekt (Verbale Beschreibungen der Aufgabe und json Logik) voneinander getrennt sind.

Die TWS Logik lernt das LLM aus einem PDF (basierend auf dem Wiki) oder aus Textdateien (*.md) und Beispielen (*.json) die Franky aus dem Wiki gescraped hat. - letzteres ist die bessere Methode.

Ich habe die KI in Googles Gemini Ai Studio benutzt. Dort kann man „branchen“, d.h in Chats abzweigen, was den langwierigen Prozess der TWS-Logik lernen abkürzt weil man das nur einmal machen muss. Ich habe die seither ein paar Mal benutzt, aber kein wirkliches „hardening“ betrieben.

Seit der Urversion habe ich nur wenige Anweisungen ergänzt. Ich halte es für den besseren Weg dem LLM die TWS Syntax und generelle Verhaltensweisen mitzugeben und es nicht mit Beispielen und Sonderregeln zu „überladen“.

Einfach mit dem Prompt starten, das LLM fragt dann nach den anderen Sachen. Das zip muss man bei Gemini vorher entpacken und die Einzeldateien zur Verfügung stellen.
Ich empfehle nach der Ersterstellung jede Änderung am Code manuell nachzuvollziehen um ein „verzetteln“ zu verhindern. Passierte mir zwar selten, aber doch, dann wird es zur Zeitverschwendung. Das LLM auf Irrwege hinzuweisen funktioniert.

Prompt:
LLM_Logik_MetaPro_Prompt_v2.3.txt
Projektvorlage:
LLM_Logik_MetaPro_Projekt_v1.1_Vorlage.txt
Lernmaterial:
Doku_Timberwolf.pdf
TWS_Wiki-Logik-Data_For_LLM.zip

VG Stefan
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
TWS 3500XL ID:1486, VPN aktiv, Reboot nach Rücksprache

eib-eg
Beiträge: 705
Registriert: Fr Sep 14, 2018 5:03 pm
Hat sich bedankt: 1627 Mal
Danksagung erhalten: 442 Mal

#247

Beitrag von eib-eg »

@Franky

Du hast ja nun meinen prompt gelesen und vermutlich auch getestet.

Was sind deine Erfahrungen hinsichtlich der anderen Vorgehensweise zu deinem prompt ?
TW 2600_99 seit 1.1.2018 / VPN zu

Ersteller
Franky
Beiträge: 197
Registriert: Di Dez 24, 2024 1:24 pm
Hat sich bedankt: 128 Mal
Danksagung erhalten: 95 Mal

#248

Beitrag von Franky »

Hi,

habe ihn noch nicht in Betrieb getestet, aber gelesen.

1) "Mein" vorgehen ist, jedes Wort des Prompts auf die Goldwage zu legen, primär token zu sparen. Jede neue Version des Prompts (die ich durchaus auch durch das LLM selbst generieren lasse) wird im File-DIFF verglichen und ich habe zig Läufe gehabt, wo das LLM "aus versehen "tut mir leid"" wichtige Passagen einfach weggelassen hat, Insofern würde "ICH" niemals einen Prompt blind übernehmen und drauf vertrauen, dass er nicht durch die LLM kaputt gemacht wurde.

2) Ich will (denselben!) Prompt auch außerhalb TWS einsetzen. Da das alles irgendwie technisch angehaucht ist (andere Programmiersprache, Konzepte erstellen, ...) ist mein Ansatz, die gemeinsamenen Punkte alle in einem Core oder Master aka MasterPrompt / MetaPro zu vereinen.

Für die speziellen Aufgaben (TWS, Microservice-Codegenerierung, Fachkonzepterstellung, ...) werden dann spezifischen Erweiterungen hinzugegeben, wenn diese Aufgabe ansteht. In der Regel also

Metapro (eine Datei, immer im Einsatz + fachspezifische Datei (bspw TWS, in der Regel auch nur eine Datei) + Dokumentation (TWS-Doku, manchmal mehrere Dateien)

Aber das muss nicht der richtige Ansatz sein.

LG Frank
Timberwolf 3500L ID:1642; Support-VPN für ElabNET ist an.

jhaeberle
Beiträge: 255
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 106 Mal
Danksagung erhalten: 56 Mal

#249

Beitrag von jhaeberle »

Hi Frank,

ich verstehe deinen Gedankengang komplett. Aber ich glaube nicht, dass es "den" Prompt für technische Aufgaben gibt. Es gibt Best-Practises, aber man muss sich immer auch auf das System einstellen, das angepeilt wird. Bei gängigen Programmiersprachen wie Java, C oder PHP kommst du mit jedem LLM schon ziemlich weit, aber ein eher nieschiges System wie die Custom Logiken vom Wolf musst du gezielt unterstützen.
Dein Ansatz "Ein Prompt für alles" passt auch nicht wirklich zu "Token sparen", oder?

Eigentlich gehört der Prompt getrennt vom "Detailwissen" zu der Domäne. Bei Java und Co. kann man sich das tendenziell sparen, aber eine Custom-Logik braucht das einfach.

Der Prompt vom @eib-eg kann drei Aufgaben: Logik erstellen, Logik verifizieren und Grafana Dashboards bauen/ändern. Da gibt es jeweils Detailwissen, alles im Prompt.
Mein erster Schritt war, das aufzuteilen. Dazu musste ich erst mal auf ein System wechseln, dass Dateien nachladen kann. Darum Gemini CLI, das verwendet die gleiche KI. Klappt gut und die in den Context zu ladended Daten nehmen natürlich entsprechend ab. Mittelfristig würde ich sogar auf drei separate Prompts gehen. Hast du mal einen Blick auf das Repo geworfen?

Mir passt nicht, dass die KI immer das ganze Wissen verarbeiten muss, auch wenn für eine Logik nur ein Bruchteil verwendet wird. Dazu müsste man ein RAG aufbauen. Also eine spezialisierte Datenbank, die es dem KI erlaubt, schnell und zielgenau auf das benötigte Wissen zuzugreifen. Lokal scheint das, mit dem richtigen Tool, recht einfach, aber wenn man das als Community machen will, wird's natürlich schon wieder aufwändig… vor allem, wenn nur kostenlose LLM und Chat-Tools in Frage kommen. Da hänge ich jetzt grade etwas.

Gruß
Jochen
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)

jhaeberle
Beiträge: 255
Registriert: Do Aug 24, 2023 11:07 am
Wohnort: Raum Augsburg
Hat sich bedankt: 106 Mal
Danksagung erhalten: 56 Mal

#250

Beitrag von jhaeberle »

Ich möchte aber noch mal sagen, dass ich noch keinen Prompt wie den von @eib-eg erlebt habe, der so umfangreich ist und wo die KI sich so genau dran hält!
@eib-eg scheint da eine Sprache gefunden zu haben, die die KI sehr gut versteht. Vielleicht das Sprechen in Beispielen und Bildern? Hört sich unglaublich an, das sind immerhin „nur“ Statistik-Maschinen, aber was ist es sonst?
TWS 3500XL, ID: 1409 (VPN offen, Reboot nach Rücksprache)
Antworten

Zurück zu „Erfolgsgeschichten“