[Frage] [V4.8 IP6] String aus HTTP API aufteilen / sinnvoll zusammensetzen
Forumsregeln
- Denke bitte an aussagekräftige Titel und gebe dort auch die [Firmware] an. Wenn ETS oder CometVisu beteiligt sind, dann auch deren Version
- Bitte mache vollständige Angaben zu Deinem Server, dessen ID und dem Online-Status in Deiner Signatur. Hilfreich ist oft auch die Beschreibung der angeschlossener Hardware sowie die verwendeten Protokolle
- Beschreibe Dein Projekt und Dein Problem bitte vollständig. Achte bitte darauf, dass auf Screenshots die Statusleiste sichtbar ist
- Bitte sei stets freundlich und wohlwollend, bleibe beim Thema und unterschreibe mit deinem Vornamen. Bitte lese alle Regeln, die Du hier findest: https://wiki.timberwolf.io/Forenregeln
-
Sun1453
- Beiträge: 2368
- Registriert: Do Feb 07, 2019 8:08 am
- Hat sich bedankt: 2210 Mal
- Danksagung erhalten: 928 Mal
Mirko das ich dich richtig verstanden habe.
HTTP API --> Server anlegen (hab ich schon)
HTTP API --> je eine Ressource pro Abfallart anlegen.
Pro Ressource würde ich dann HTTP Anfrage aktualisieren, die aktuelle Periode per Logik Engine triggern und damit dann auch die Anfrage an den Server senden.
Dann erhalte ich die Antwort als CSV die ich dann an die Logik von Georg gebe, der dann die ganzen Sachen sinnvoll für die Visu aufbereitet.
Am Ende habe ich dann in der Visu ein Schalten Info Widget mit der aktuell nächsten Tonne auf der Kachelansicht und die weiteren die im Zeitraum liegen in der Detail Ansicht auf entsprechenden Objekten.
PS: bin ja mal gespannt was Georgs KI (@eib-eg ) schönes denkt und vorschlägt.
HTTP API --> Server anlegen (hab ich schon)
HTTP API --> je eine Ressource pro Abfallart anlegen.
Pro Ressource würde ich dann HTTP Anfrage aktualisieren, die aktuelle Periode per Logik Engine triggern und damit dann auch die Anfrage an den Server senden.
Dann erhalte ich die Antwort als CSV die ich dann an die Logik von Georg gebe, der dann die ganzen Sachen sinnvoll für die Visu aufbereitet.
Am Ende habe ich dann in der Visu ein Schalten Info Widget mit der aktuell nächsten Tonne auf der Kachelansicht und die weiteren die im Zeitraum liegen in der Detail Ansicht auf entsprechenden Objekten.
PS: bin ja mal gespannt was Georgs KI (@eib-eg ) schönes denkt und vorschlägt.
Zuletzt geändert von Sun1453 am Mi Mär 18, 2026 2:24 pm, insgesamt 1-mal geändert.
Gruß Michael
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
-
Micro
- Beiträge: 130
- Registriert: So Mai 12, 2024 10:43 pm
- Wohnort: Greifswald
- Hat sich bedankt: 7 Mal
- Danksagung erhalten: 40 Mal
Genau Michael,
so würde ich es machen.
Bei jeder Abfrage ist es dann klar, um welche Abfallart es sich handelt und es müssen nur die Termine ausgelesen werden.
Im anderen Fall hätte man eine Liste mit mehreren Spalten und unterschiedlich vielen Terminen pro Spalte.
so würde ich es machen.
Bei jeder Abfrage ist es dann klar, um welche Abfallart es sich handelt und es müssen nur die Termine ausgelesen werden.
Im anderen Fall hätte man eine Liste mit mehreren Spalten und unterschiedlich vielen Terminen pro Spalte.
Grüße Mirko
#1 Timberwolf 960Q #329 / Offline
#2 Timberwolf 3500XL #1523 / VPN aktiv / Reboot auf Nachfrage
#PV 9,36 kWp und 9,6 kWh Akku
#1 Timberwolf 960Q #329 / Offline
#2 Timberwolf 3500XL #1523 / VPN aktiv / Reboot auf Nachfrage
#PV 9,36 kWp und 9,6 kWh Akku
-
eib-eg
- Beiträge: 919
- Registriert: Fr Sep 14, 2018 5:03 pm
- Hat sich bedankt: 1719 Mal
- Danksagung erhalten: 672 Mal
ki text
### **Katalog-Dokumentation: Abfall-Termin Extraktor V1.00**
**Automatisierte Terminerkennung und Vorwarnung aus CSV-API-Antworten.**
#### **Die „Magie“ dieser Logik**
Diese Logik dient der automatisierten Verarbeitung von Entsorgungsterminen, die über eine HTTP-API im CSV-Format (z. B. von `api.abfall.io`) bereitgestellt werden. Der Baustein ist darauf optimiert, eine spezifische Abfallart pro Instanz zu verarbeiten.
Die Logik isoliert mittels regulärer Ausdrücke (`Regex`) das erste verfügbare Datum aus der Antwort. Da das systeminterne Zeitmodul (`Localtime`) Monate von 0–11 und Jahre ab 1900 zählt, führt dieser Baustein eine automatische mathematische Normierung durch. Parallel dazu wird der Zeitstempel für den nächsten Kalendertag („Morgen“) berechnet. Durch einen dreistufigen Vergleich (Tag, Monat, Jahr) wird ein binäres Signal erzeugt, das rechtzeitig signalisiert, wenn eine Tonne bereitgestellt werden muss.
#### **Kern-Module**
* **Regex:** Extraktion des Datums-Strings und Zerlegung in Komponenten.
* **Localtime:** Auslesen der Systemzeit und Wandlung von Timestamps.
* **Polynomial:** Mathematische Korrektur der Zeit-Offsets und Berechnung von „Morgen“.
* **Limiter:** Präziser Komponenten-Vergleich (Gleichheits-Prüfung).
* **Status-Register:** Ausgabe eines additiven Status-Codes zur Diagnose.
#### **Eingänge**
#### **Ausgänge**
#### **Hinweise zur Konfiguration**
* **HTTP-API:** Erstellen Sie im HTTP-API-Manager pro Abfallart eine eigene Ressource (z. B. über den Parameter `wastetypes`).
* **Puffergröße:** Der Eingang ist auf 1024 Zeichen vordefiniert. Bei extrem langen CSV-Listen muss die Länge im `Level`-Block angepasst werden.
* **Status-Codes:**
* `10`: Normalbetrieb, Datum erfolgreich erkannt.
* `901`: Fehler bei der Datenextraktion (Regex-Match fehlgeschlagen).

!!!!! ist speicherbar aber nicht gestestet !!!!
mfg
eib-eg Georg
### **Katalog-Dokumentation: Abfall-Termin Extraktor V1.00**
**Automatisierte Terminerkennung und Vorwarnung aus CSV-API-Antworten.**
#### **Die „Magie“ dieser Logik**
Diese Logik dient der automatisierten Verarbeitung von Entsorgungsterminen, die über eine HTTP-API im CSV-Format (z. B. von `api.abfall.io`) bereitgestellt werden. Der Baustein ist darauf optimiert, eine spezifische Abfallart pro Instanz zu verarbeiten.
Die Logik isoliert mittels regulärer Ausdrücke (`Regex`) das erste verfügbare Datum aus der Antwort. Da das systeminterne Zeitmodul (`Localtime`) Monate von 0–11 und Jahre ab 1900 zählt, führt dieser Baustein eine automatische mathematische Normierung durch. Parallel dazu wird der Zeitstempel für den nächsten Kalendertag („Morgen“) berechnet. Durch einen dreistufigen Vergleich (Tag, Monat, Jahr) wird ein binäres Signal erzeugt, das rechtzeitig signalisiert, wenn eine Tonne bereitgestellt werden muss.
#### **Kern-Module**
* **Regex:** Extraktion des Datums-Strings und Zerlegung in Komponenten.
* **Localtime:** Auslesen der Systemzeit und Wandlung von Timestamps.
* **Polynomial:** Mathematische Korrektur der Zeit-Offsets und Berechnung von „Morgen“.
* **Limiter:** Präziser Komponenten-Vergleich (Gleichheits-Prüfung).
* **Status-Register:** Ausgabe eines additiven Status-Codes zur Diagnose.
#### **Eingänge**
| Name | Beschreibung | Variable | Trigger |
|---|---|---|---|
| CSV Antwort | Rohdaten-String der HTTP-API | `$In_CSV` | c |
| Name | Beschreibung | Variable | Sende-Option |
|---|---|---|---|
| Nächster Termin | Extrahiertes Datum (DD.MM.YYYY) | `$Out_Date` | c |
| Tonne morgen rausstellen | Wahr, wenn Termin = Morgen | `$Out_Tomorrow` | c |
| Logik Status | Diagnose-Code (10=OK, 901=Fehler) | `$O_Status` | c |
* **HTTP-API:** Erstellen Sie im HTTP-API-Manager pro Abfallart eine eigene Ressource (z. B. über den Parameter `wastetypes`).
* **Puffergröße:** Der Eingang ist auf 1024 Zeichen vordefiniert. Bei extrem langen CSV-Listen muss die Länge im `Level`-Block angepasst werden.
* **Status-Codes:**
* `10`: Normalbetrieb, Datum erfolgreich erkannt.
* `901`: Fehler bei der Datenextraktion (Regex-Match fehlgeschlagen).

!!!!! ist speicherbar aber nicht gestestet !!!!
mfg
eib-eg Georg
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
TW 2600_99 seit 1.1.2018 / VPN zu
-
AndererStefan
- Beiträge: 455
- Registriert: Sa Mär 02, 2024 11:04 am
- Hat sich bedankt: 244 Mal
- Danksagung erhalten: 309 Mal
Offtopic:
Für einige andere Städte und Kreise in Deutschland gibt es hier eine weitere Mülltermin API: https://abfallnavi.api.bund.dev/
Mit der Header Einstellung "Accept: application/json" liefert die API ein json mit allen Abholterminen des Jahres aus. Das json kann man direkt in der HTTP-API zerlegen und alle Termine in eigene Objekte schreiben. In diesem Fall braucht die Logik nichts extrahieren und sondern nur noch alle Text-Daten umwandeln und auswerten.
Ich brauche das eigentlich nicht, aber mein Spieltrieb ist getriggert
VG
Stefan
TWS 3500XL ID:1486, VPN aktiv, Reboot nach Rücksprache
-
Sun1453
- Beiträge: 2368
- Registriert: Do Feb 07, 2019 8:08 am
- Hat sich bedankt: 2210 Mal
- Danksagung erhalten: 928 Mal
Hi Stefan,
ja es gibt x verschiedene APIs, weil jeder Landkreis bzw. Entsorgungsunternehmen verschiedene Software Produkte nutzt.
Hier die Übersicht wer https://www.abfallplus.de/unsere-abfall-apps/
ja es gibt x verschiedene APIs, weil jeder Landkreis bzw. Entsorgungsunternehmen verschiedene Software Produkte nutzt.
Hier die Übersicht wer https://www.abfallplus.de/unsere-abfall-apps/
Gruß Michael
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
-
Sun1453
- Beiträge: 2368
- Registriert: Do Feb 07, 2019 8:08 am
- Hat sich bedankt: 2210 Mal
- Danksagung erhalten: 928 Mal
@eib-eg
Hallo Georg,
Kann man die Logik auf alle Abfall Arten erweitern und auch eine zusätzliche Ausgabe erweitern 2 Tage vorher?
Hallo Georg,
Kann man die Logik auf alle Abfall Arten erweitern und auch eine zusätzliche Ausgabe erweitern 2 Tage vorher?
Gruß Michael
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
-
Micro
- Beiträge: 130
- Registriert: So Mai 12, 2024 10:43 pm
- Wohnort: Greifswald
- Hat sich bedankt: 7 Mal
- Danksagung erhalten: 40 Mal
Hallo @Sun1453 ,
die Abfrage wird für jede Abfallart getrennt durchgeführt, darum ist es flexibel erweiterbar.
die Abfrage wird für jede Abfallart getrennt durchgeführt, darum ist es flexibel erweiterbar.
Grüße Mirko
#1 Timberwolf 960Q #329 / Offline
#2 Timberwolf 3500XL #1523 / VPN aktiv / Reboot auf Nachfrage
#PV 9,36 kWp und 9,6 kWh Akku
#1 Timberwolf 960Q #329 / Offline
#2 Timberwolf 3500XL #1523 / VPN aktiv / Reboot auf Nachfrage
#PV 9,36 kWp und 9,6 kWh Akku
-
eib-eg
- Beiträge: 919
- Registriert: Fr Sep 14, 2018 5:03 pm
- Hat sich bedankt: 1719 Mal
- Danksagung erhalten: 672 Mal
@Sun1453
Wenn du genauere Angaben machen kannst wie was und wo
Bitte nicht falsch verstehen
Ich brauche eine solche Logik nicht aber zum Härten des kanons ist sowas sehr hilfreich
Also bitte ich darum um genauere Angaben
Als Beispiel
Du wirst auch nicht zum heizungsbauer sagen die Heizung geht nicht als einzige Angabe
Den Fehler suchen kann Stunden oder Tage dauern
Hingegen der Heizkörper im rechten Kinderzimmer wird nur bis zur Hälfte warm bzw. Heiß der Rest bleibt kalt
Ergebnis der Heizkörper ist nicht entlüftet sowie Überprüfung des Ausdehnungsgefäß und heizungsdruck
Mit solchen genaueren Angaben kommt der Kanon am schnellsten voran
Wie schon oft geschrieben
Was ist gegeben
Was soll das genaue Ergebnis sein
Der Rechenweg ist der Kanon
mfg
eib-eg Georg
Wenn du genauere Angaben machen kannst wie was und wo
Bitte nicht falsch verstehen
Ich brauche eine solche Logik nicht aber zum Härten des kanons ist sowas sehr hilfreich
Also bitte ich darum um genauere Angaben
Als Beispiel
Du wirst auch nicht zum heizungsbauer sagen die Heizung geht nicht als einzige Angabe
Den Fehler suchen kann Stunden oder Tage dauern
Hingegen der Heizkörper im rechten Kinderzimmer wird nur bis zur Hälfte warm bzw. Heiß der Rest bleibt kalt
Ergebnis der Heizkörper ist nicht entlüftet sowie Überprüfung des Ausdehnungsgefäß und heizungsdruck
Mit solchen genaueren Angaben kommt der Kanon am schnellsten voran
Wie schon oft geschrieben
Was ist gegeben
Was soll das genaue Ergebnis sein
Der Rechenweg ist der Kanon
mfg
eib-eg Georg
TW 2600_99 seit 1.1.2018 / VPN zu
-
Sun1453
- Beiträge: 2368
- Registriert: Do Feb 07, 2019 8:08 am
- Hat sich bedankt: 2210 Mal
- Danksagung erhalten: 928 Mal
Folgendes Ziel bzw Aufbau soll sein.
Ich triggere das HTTP Api System mit dem aktuellen Zeitraum. Da gibts noch ein Problem was Matthias noch prüfen muss.
Ich löse damit dann die Abfragen für die 5 Abfall Arten aus und die CSV Responsen sollen dann an die Custom Logik gehen ( 5 Eingänge)
Diese soll dann eine Auswertung machen. Damit soll die Tonne welche morgen oder Übermorgen raus muss an jeweils einen Ausgang gehen.
Dann gibt es noch Ausgang 3 - 7 wo die Tonnen normal mit Name und Datum raus kommen. Wenn Antwort von HTTP Api leer dann einfach Text „Keine Leerung“
Ich triggere das HTTP Api System mit dem aktuellen Zeitraum. Da gibts noch ein Problem was Matthias noch prüfen muss.
Ich löse damit dann die Abfragen für die 5 Abfall Arten aus und die CSV Responsen sollen dann an die Custom Logik gehen ( 5 Eingänge)
Diese soll dann eine Auswertung machen. Damit soll die Tonne welche morgen oder Übermorgen raus muss an jeweils einen Ausgang gehen.
Dann gibt es noch Ausgang 3 - 7 wo die Tonnen normal mit Name und Datum raus kommen. Wenn Antwort von HTTP Api leer dann einfach Text „Keine Leerung“
Gruß Michael
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
Timberwolf 950 QL #344 | Mit Internetanbindung | VPN Offen | Reboot nach Absprache | PROD Server
Timberwolf 2500 #602 | VPN offen | TEST Server | Reboot nach Absprache |
-
eib-eg
- Beiträge: 919
- Registriert: Fr Sep 14, 2018 5:03 pm
- Hat sich bedankt: 1719 Mal
- Danksagung erhalten: 672 Mal
ab hir ki text wie gewohnt mit dem Kanon 8.01.01
### Forensische Analyse der erweiterten Anforderungen (V8.01.01)
Die Anforderung von `Sun1453` umfasst die parallele Auswertung von fünf Abfallarten mit einer kombinierten Logik für „Morgen“ und „Übermorgen“.
**Technische Herausforderungen & Lösungen:**
1. **Multi-Kanal-Verarbeitung:** Wir integrieren fünf identische Extraktions-Pipelines in eine Logik-Zelle.
2. **Zustandssouveränität (Regel 1.18):** Falls eine API-Antwort leer ist, wird über einen Multiplexer der Text „Keine Leerung“ gesetzt.
3. **Zeit-Arithmetik:** Wir berechnen zwei Referenz-Zeitstempel (Jetzt + 86.400s und Jetzt + 172.800s).
4. **Zusammenfassungs-Ausgang:** Da meist nur eine Tonne pro Tag abgeholt wird, nutzen wir eine Prioritäts-Kaskade, um den Namen der fälligen Tonne als String auszugeben.
5. **Komplexitäts-Warnung (Regel 1.19):** Diese Logik überschreitet 50 Variablen. Sie ist als „Stufe 2 (Orange)“ klassifiziert. Ein monolithisches Design ist hier noch zulässig, erfordert aber höchste Präzision beim Variablen-Audit.
---
### Forensische Prüfung (Regel 1.194)
* **Localtime:** Korrektur auf exakt 11 Parameter gemäß TSKB (Regel 1.197).
* **Regex:** Capture-Groups für Tag, Monat, Jahr.
* **Multiplexer:** Auswahl der Namen für die Zusammenfassung.
* **Labels:** Beibehaltung der funktionalen Bezeichnungen zur stabilen Verknüpfung.
---
### Katalog-Dokumentation: Abfall-Zentrale 5-Kanal V1.00
**Zentrale Auswertung für 5 Abfallarten mit prädiktiver Statusmeldung.**
#### **Die Funktion dieser Logik**
Dieser Baustein verarbeitet die CSV-Antworten von fünf getrennten HTTP-Ressourcen (z. B. Bio, Rest, Gelb, Blau, Schadstoffe). Er extrahiert für jeden Kanal den nächsten Termin.
Zusätzlich prüft die Logik für jeden Kanal, ob der Termin mit dem morgigen oder übermorgigen Datum übereinstimmt. Das Ergebnis wird als Klartext (z. B. „Biotonne“) an zwei zentralen Ausgängen für die Visualisierung bereitgestellt.
#### **Kern-Module**
* **Regex:** 5-fache Extraktion und Zerlegung der Datums-Strings.
* **Localtime:** Berechnung der Vergleichskomponenten für heute, morgen und übermorgen.
* **Multiplexer-Kaskade:** Priorisierte Namensfindung für die Status-Ausgabe.
#### **Eingänge**
#### **Ausgänge**
---
### Logik-Code (V8.01.01)
**PROTOKOLL: Phase 2 abgeschlossen. Die Logik wurde auf 5 Kanäle skaliert, enthält die „Übermorgen“-Prädiktion und das „Keine Leerung“-Handling. Das Variablen-Audit wurde durchgeführt.**
ende ki text
die logik hat sich speichern lassen aber nicht getestet da bei mir kein anwendungsfall
mfg
eib-eg Georg
### Forensische Analyse der erweiterten Anforderungen (V8.01.01)
Die Anforderung von `Sun1453` umfasst die parallele Auswertung von fünf Abfallarten mit einer kombinierten Logik für „Morgen“ und „Übermorgen“.
**Technische Herausforderungen & Lösungen:**
1. **Multi-Kanal-Verarbeitung:** Wir integrieren fünf identische Extraktions-Pipelines in eine Logik-Zelle.
2. **Zustandssouveränität (Regel 1.18):** Falls eine API-Antwort leer ist, wird über einen Multiplexer der Text „Keine Leerung“ gesetzt.
3. **Zeit-Arithmetik:** Wir berechnen zwei Referenz-Zeitstempel (Jetzt + 86.400s und Jetzt + 172.800s).
4. **Zusammenfassungs-Ausgang:** Da meist nur eine Tonne pro Tag abgeholt wird, nutzen wir eine Prioritäts-Kaskade, um den Namen der fälligen Tonne als String auszugeben.
5. **Komplexitäts-Warnung (Regel 1.19):** Diese Logik überschreitet 50 Variablen. Sie ist als „Stufe 2 (Orange)“ klassifiziert. Ein monolithisches Design ist hier noch zulässig, erfordert aber höchste Präzision beim Variablen-Audit.
---
### Forensische Prüfung (Regel 1.194)
* **Localtime:** Korrektur auf exakt 11 Parameter gemäß TSKB (Regel 1.197).
* **Regex:** Capture-Groups für Tag, Monat, Jahr.
* **Multiplexer:** Auswahl der Namen für die Zusammenfassung.
* **Labels:** Beibehaltung der funktionalen Bezeichnungen zur stabilen Verknüpfung.
---
### Katalog-Dokumentation: Abfall-Zentrale 5-Kanal V1.00
**Zentrale Auswertung für 5 Abfallarten mit prädiktiver Statusmeldung.**
#### **Die Funktion dieser Logik**
Dieser Baustein verarbeitet die CSV-Antworten von fünf getrennten HTTP-Ressourcen (z. B. Bio, Rest, Gelb, Blau, Schadstoffe). Er extrahiert für jeden Kanal den nächsten Termin.
Zusätzlich prüft die Logik für jeden Kanal, ob der Termin mit dem morgigen oder übermorgigen Datum übereinstimmt. Das Ergebnis wird als Klartext (z. B. „Biotonne“) an zwei zentralen Ausgängen für die Visualisierung bereitgestellt.
#### **Kern-Module**
* **Regex:** 5-fache Extraktion und Zerlegung der Datums-Strings.
* **Localtime:** Berechnung der Vergleichskomponenten für heute, morgen und übermorgen.
* **Multiplexer-Kaskade:** Priorisierte Namensfindung für die Status-Ausgabe.
#### **Eingänge**
| Name | Beschreibung | Variable | Trigger |
|---|---|---|---|
| CSV [Art] | Rohdaten der jeweiligen Tonne | `$I_CSV_1` bis `$I_CSV_5` | c |
| Intervall | Takt für die interne Berechnung | `$I_Clock` | u |
| Name | Beschreibung | Variable | Sende-Option |
|---|---|---|---|
| Tonne Morgen | Name der Tonne für morgen | `$O_Name_Tom` | c |
| Tonne Übermorgen | Name der Tonne für übermorgen | `$O_Name_After` | c |
| Termin [Art] | Nächstes Datum pro Tonne | `$O_Date_1` bis `$O_Date_5` | c |
### Logik-Code (V8.01.01)
**PROTOKOLL: Phase 2 abgeschlossen. Die Logik wurde auf 5 Kanäle skaliert, enthält die „Übermorgen“-Prädiktion und das „Keine Leerung“-Handling. Das Variablen-Audit wurde durchgeführt.**
ende ki text
die logik hat sich speichern lassen aber nicht getestet da bei mir kein anwendungsfall
mfg
eib-eg Georg
Du hast keine ausreichende Berechtigung, um die Dateianhänge dieses Beitrags anzusehen.
Zuletzt geändert von eib-eg am Sa Mär 21, 2026 8:52 pm, insgesamt 2-mal geändert.
TW 2600_99 seit 1.1.2018 / VPN zu