KNX Data Secure Unterstützung
für KNX Logger und KNX Busmonitor
KNX Diagnose Monitor, Import des ETS Projektes deutlich beschleunigt, Suche in der Navigation
Mehr Informationen dazu hier im Forum
Insider Version 6 zur 4.5 jetzt für alle Mitglieder des Insider Clubs installierbar
Alle Infos zum Update im Timberwolf Wiki
[FR] Sprachsteuerung offline / off-Cloud
-
- Reactions:
- Beiträge: 64
- Registriert: So Aug 12, 2018 7:39 am
- Hat sich bedankt: 10 Mal
- Danksagung erhalten: 29 Mal
"bei Bedarf": Nachschlagen von Informationen (Wetterdaten, News, ...). Keine Auswertung in der Cloud.
Mikrophone habe ich nicht verbaut, lediglich Lautsprecherleitungen. Das ist aber auch nicht für Multiroom-Audio gedacht sondern eher für Hinweistöne und eben auch Sprachausgaben. Zur Spracheingabe wäre mir bislang kein sinnvoller Weg eingefallen.
Langfristig sehe ich da auch mehr die Smarten Lautsprecher wie eben Alexa & Co - nur eben mit lokaler Aufnahme, Auswertung und Befehlsdurchführung. So könnte man seine eigene Datenbasis haben auf die dann zugegriffen wird. In Filmen gibt es sowas ja auch schon lange...
KIs / neuronale Netze werden vermutlich ein Weg sein wie das realisiert wird bzw. wie die Sprache erkannt wird. Was dann noch fehlt ist die Intelligenz dahinter die die Daten vom Internet besorgt, lokal irgendwelche KNX-Zugriffe macht oder die lokale Datenbasis ergänzt. Hier wird es aus meiner Sicht noch spannender als ein reines Gateway nach KNX.
Mikrophone habe ich nicht verbaut, lediglich Lautsprecherleitungen. Das ist aber auch nicht für Multiroom-Audio gedacht sondern eher für Hinweistöne und eben auch Sprachausgaben. Zur Spracheingabe wäre mir bislang kein sinnvoller Weg eingefallen.
Langfristig sehe ich da auch mehr die Smarten Lautsprecher wie eben Alexa & Co - nur eben mit lokaler Aufnahme, Auswertung und Befehlsdurchführung. So könnte man seine eigene Datenbasis haben auf die dann zugegriffen wird. In Filmen gibt es sowas ja auch schon lange...
KIs / neuronale Netze werden vermutlich ein Weg sein wie das realisiert wird bzw. wie die Sprache erkannt wird. Was dann noch fehlt ist die Intelligenz dahinter die die Daten vom Internet besorgt, lokal irgendwelche KNX-Zugriffe macht oder die lokale Datenbasis ergänzt. Hier wird es aus meiner Sicht noch spannender als ein reines Gateway nach KNX.
TWS 2600 ID:172, VPN offen, Reboot erlaubt
-
- Reactions:
- Beiträge: 411
- Registriert: Mo Aug 13, 2018 10:51 am
- Wohnort: Hannover
- Hat sich bedankt: 200 Mal
- Danksagung erhalten: 273 Mal
Jeder Lautsprecher kann - technisch gesehen - als Mikrofon verwendet werden. Der Anschluss eines "richtigen" Mikrofons an die vorhandene Lautsprecherleitung sollte auch kein Problem darstellen und - konstruktionsbedingt - bessere Ergebnisse liefern.
Davon abgesehen denke auch ich, dass eine Anbindung an vorhandene und marktgängige Sprachassistenten ein wichtigeres Feature ist. Auch wenn ich keinen von denen zu Hause habe und auf vorhandenen Systemen die Spracherkennung deaktiviert habe, wird das deutlich mehr Leute interessieren und ansprechen. Cloud und Sicherheit hin oder her, das bereits genannte Argument der KI ist nicht zu unterschätzen.
--
TWS 2500 (ID=137), PBM, Wartungs-VPN=ON, Reboot bitte nur nach Absprache
TWS 2500 (ID=137), PBM, Wartungs-VPN=ON, Reboot bitte nur nach Absprache
-
- Reactions:
- Beiträge: 3903
- Registriert: So Aug 12, 2018 8:44 am
- Hat sich bedankt: 1264 Mal
- Danksagung erhalten: 2213 Mal
Ich frag mich an der Stelle 2 Dinge:
1) kann man drauf vertrauen, dass Alexa nur nach dem Keyword Alexa aufzunehmen beginnt?
2) Was ist das Risiko, wenn Amazon (auch noch) mitbekommt, ob ich grad das Licht einschalte...
Lg
Robert
1) kann man drauf vertrauen, dass Alexa nur nach dem Keyword Alexa aufzunehmen beginnt?
2) Was ist das Risiko, wenn Amazon (auch noch) mitbekommt, ob ich grad das Licht einschalte...
Lg
Robert
Timberwolf Server 2500 / #117 (VPN offen + reboot nach Rückfrage) / zusätzlich: 3500M/#935, 3500L/#1297
-
- Reactions:
- Beiträge: 428
- Registriert: So Aug 12, 2018 9:42 am
- Wohnort: Raum Magdeburg
- Hat sich bedankt: 242 Mal
- Danksagung erhalten: 148 Mal
Bei solchen Debatten beginnen die Grenzen zwischen "Aluhut auf" und "Super, ich brauche nicht mehr soviel denken, bekomme Assistenz und vereinfache mir damit das Leben" immer ganz schnell zu verwässern.Robert_Mini hat geschrieben: ↑Do Aug 23, 2018 9:48 am Ich frag mich an der Stelle 2 Dinge:
1) kann man drauf vertrauen, dass Alexa nur nach dem Keyword Alexa aufzunehmen beginnt?
2) Was ist das Risiko, wenn Amazon (auch noch) mitbekommt, ob ich grad das Licht einschalte...
Lg
Robert
1) Im Zweifel würde ich immer sagen - NEIN. Aber welche Folgen hat das und was leite ich daraus für mich ab? Insbesondere, wenn meine Familie und Gäste den ganzen Tag in meiner Nähe mit Smartphones hantieren, der Fire-TV-Stick (mit eingebautem Mikro) auf dem Sofa liegt oder die chinesischen Hausputzgadgets von Gearbest an der nächstgelegenen Steckdose schlummern. Warum legen alle Mitarbeiter mancher Engineeringfirmen zu Beginn ihrer Meetings die Smartphones in eine verschlossene Keksdose?
2) Das ist das übliche "Ich habe doch nichts zu verbergen"-Paradigma, bei dem ich in den meisten Stammtischdiskussionen mit Freunden am liebsten den Kopf auf den Tisch schlagen möchte. Die Spitze ist doch nur, dass Datensammler die Profile schärfen und unser (Konsum-)Verhalten ganz konkret beeinflussen. Wir alle wissen: da geht noch viel mehr.
Das alles kann man gutheißen, es ignorieren oder sich dagegen auflehnen. Ändern wird es in allen Fällen wenig. Woran ich mich aber klammere (zumindest beruhigt es mich, die Illusion haben zu dürfen) ist, dass ich mich mit der vorhandenen Technik noch irgendwie auf eine offline oder OFF-Cloud Insel mit meinem EFH zurückziehen KÖNNTE (zu mehr wird es wahrscheinlich nie gereichen). Das macht bei mir übrigens auch die mitunter perverse Ambivalenz aus. Einerseits gern so oft wie möglich Early-Adopter und Faszination durch jedwede Technik, andererseits aber auch tiefes Unbehagen vor den Manipulationsmöglichkeiten.
Das Leben ist hart

Aber mich fasziniert einfach die Schnittstelle "Stimme". Das finde ich in Bezug auf Haussteuerung sehr komfortabel. Ich möchte aber eben nicht, dass Alexa mir jedes Mal bei (durchaus öfter vorkommendem) auditiven Missverständnis erzählt, wann der Kölner Dom errichtet wurde oder was eine Mondfinsternis ist.
Hinzugefügt nach 2 Minuten 50 Sekunden:
tws88_user hat geschrieben: ↑Do Aug 23, 2018 10:47 amBei solchen Debatten beginnen die Grenzen zwischen "Aluhut auf" und "Super, ich brauche nicht mehr soviel denken, bekomme Assistenz und vereinfache mir damit das Leben" immer ganz schnell zu verwässern.Robert_Mini hat geschrieben: ↑Do Aug 23, 2018 9:48 am Ich frag mich an der Stelle 2 Dinge:
1) kann man drauf vertrauen, dass Alexa nur nach dem Keyword Alexa aufzunehmen beginnt?
2) Was ist das Risiko, wenn Amazon (auch noch) mitbekommt, ob ich grad das Licht einschalte...
Lg
Robert
1) Im Zweifel würde ich immer sagen - NEIN. Aber welche Folgen hat das und was leite ich daraus für mich ab? Insbesondere, wenn meine Familie und Gäste den ganzen Tag in meiner Nähe mit Smartphones hantieren, der Fire-TV-Stick (mit eingebautem Mikro) auf dem Sofa liegt oder die chinesischen Hausputzgadgets von Gearbest an der nächstgelegenen Steckdose schlummern. Warum legen alle Mitarbeiter mancher Engineeringfirmen zu Beginn ihrer Meetings die Smartphones in eine verschlossene Keksdose?
2) Das ist das übliche "Ich habe doch nichts zu verbergen"-Paradigma, bei dem ich in den meisten Stammtischdiskussionen mit Freunden am liebsten den Kopf auf den Tisch schlagen möchte. Die Spitze ist doch nur, dass Datensammler die Profile schärfen und unser (Konsum-)Verhalten ganz konkret beeinflussen. Wir alle wissen: da geht noch viel mehr.
Das alles kann man gutheißen, es ignorieren oder sich dagegen auflehnen. Ändern wird es in allen Fällen wenig. Woran ich mich aber klammere (zumindest beruhigt es mich, die Illusion haben zu dürfen) ist, dass ich mich mit der vorhandenen Technik noch irgendwie auf eine offline oder OFF-Cloud Insel mit meinem EFH zurückziehen KÖNNTE (zu mehr wird es wahrscheinlich nie gereichen). Das macht bei mir übrigens auch die mitunter perverse Ambivalenz aus. Einerseits gern so oft wie möglich Early-Adopter und Faszination durch jedwede Technik, andererseits aber auch tiefes Unbehagen vor den Manipulationsmöglichkeiten.
Es entsteht der Eindruck, man kommt irgendwie nicht umhin, einen gewissen Fatalismus zu entwickeln. Die hypothetische technologische Exit-Strategie möchte ich mir aber für mein Seelenheil unbedingt erhalten. Das Leben ist hart![]()
Aber mich fasziniert einfach die Schnittstelle "Stimme". Das finde ich in Bezug auf Haussteuerung sehr komfortabel. Ich möchte aber eben nicht, dass Alexa mir jedes Mal bei (durchaus öfter vorkommendem) auditiven Missverständnis erzählt, wann der Kölner Dom errichtet wurde oder was eine Mondfinsternis ist.
Viele Grüße, Kai
______________________
Timberwolf88 (2500er) - VPN offen. Reboot bitte nach Absprache.
______________________
Timberwolf88 (2500er) - VPN offen. Reboot bitte nach Absprache.
-
- Reactions:
- Beiträge: 1225
- Registriert: Sa Aug 11, 2018 10:52 pm
- Wohnort: Oberbayern
- Hat sich bedankt: 250 Mal
- Danksagung erhalten: 887 Mal
- Kontaktdaten:
Nach den Fragen nun ein paar Antworten 
Damit das funktioniert, brauchst Du viele dezentrale Mikrophone die auch noch halbwegs günstig aufgestellt sind. Da wir ja schon überall Busleitung liegen haben, können wir die grundsätzlich dafür nutzen - nicht um die Sprache zu übertragen (dazu ist der Bus zu langsam) aber um Mikrofon+lokale Intelligenz mit Spannung zu versorgen und den Befehl in kompakter Form zu übertragen.
Das gute ist, dass neuronale Netze nur hart beim Trainieren sind, bei der Anwendung eines trainierten Netzes ist der Aufwand deutlich geringer.
=> Man müsste in die Lichtschalter, Präsenzmelder, Rauchmelder, ... jeweils ein Mikrophon und einen Mikroprozessor für die lokale Umwandlung der Worte in Code-Wörter einbauen (und davor natürlich entwickeln...).
Genau diesen Schritt macht SynOhr schon mal grundsätzlich richtig.
Der Spracherkennungsteil davon ist gar nicht so schlimm, es gibt ja Open Source Lösung von Mozilla (https://research.mozilla.org/machine-learning/ -> DeepSpeech aber auch https://voice.mozilla.org/de wo bereits jetzt(!) jeder(!) unterstützen kann!)
Zentral (-> TimberWolf) könnte man dann die Code-Wörter in reale Befehle für den Bus übersetzen und ausführen.
In Theorie alles wunderbar machbar. In der Praxis ein schönes Bastel-Projekt, Doktorarbeit, o.ä.
So wie ich die Lage einschätzt ist das eine Spur zu groß für ElabNet und wäre für die klassischen Schalter-Hersteller genau richtig. Aber dann müsste man ja mal wieder in Innovation investieren. So wird es praktisch beim Aluhut-Alptraum einer Google/Amazon/Samsung in allen relevanten Räumen bleiben.

Damit das funktioniert, brauchst Du viele dezentrale Mikrophone die auch noch halbwegs günstig aufgestellt sind. Da wir ja schon überall Busleitung liegen haben, können wir die grundsätzlich dafür nutzen - nicht um die Sprache zu übertragen (dazu ist der Bus zu langsam) aber um Mikrofon+lokale Intelligenz mit Spannung zu versorgen und den Befehl in kompakter Form zu übertragen.
Das gute ist, dass neuronale Netze nur hart beim Trainieren sind, bei der Anwendung eines trainierten Netzes ist der Aufwand deutlich geringer.
=> Man müsste in die Lichtschalter, Präsenzmelder, Rauchmelder, ... jeweils ein Mikrophon und einen Mikroprozessor für die lokale Umwandlung der Worte in Code-Wörter einbauen (und davor natürlich entwickeln...).
Genau diesen Schritt macht SynOhr schon mal grundsätzlich richtig.
Der Spracherkennungsteil davon ist gar nicht so schlimm, es gibt ja Open Source Lösung von Mozilla (https://research.mozilla.org/machine-learning/ -> DeepSpeech aber auch https://voice.mozilla.org/de wo bereits jetzt(!) jeder(!) unterstützen kann!)
Zentral (-> TimberWolf) könnte man dann die Code-Wörter in reale Befehle für den Bus übersetzen und ausführen.
In Theorie alles wunderbar machbar. In der Praxis ein schönes Bastel-Projekt, Doktorarbeit, o.ä.
So wie ich die Lage einschätzt ist das eine Spur zu groß für ElabNet und wäre für die klassischen Schalter-Hersteller genau richtig. Aber dann müsste man ja mal wieder in Innovation investieren. So wird es praktisch beim Aluhut-Alptraum einer Google/Amazon/Samsung in allen relevanten Räumen bleiben.
CometVisu Entwickler - Bitte keine PNs, Fragen gehören in das Forum, damit jeder was von den Antworten hat!
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache
-
- Reactions:
- Beiträge: 64
- Registriert: So Aug 12, 2018 7:39 am
- Hat sich bedankt: 10 Mal
- Danksagung erhalten: 29 Mal
Die Sprache zu verstehen ist für mich nur ein erster Schritt. Es kommt viel mehr darauf an was dann alles gemacht werden kann. Nur die Rollos oder das Licht zu steuern rechtfertigt den Aufwand nicht. Da müssen dann Termine/Erinnerungen eingetragen, irgendwelche Koch-Timer aufgezogen eine Nachricht an irgendwen geschickt werden können usw. Da sehe ich die Möglichkeiten die ein kleiner Microcontroller in einer Unterputzdose - angebunden via KNX - hat als nicht ausreichend an. Es reicht nicht aus nur ein paar Keywords zu erkennen. SynOhr ist sicherlich ein interessantes Produkt und auf diesem Gebiet auch irgendwo richtungsweisend. Trotzdem erfüllt es meine Anforderungen nicht bzw. ich würde dafür keine 450€ ausgeben wollen.
Eine spezielle Installation (Microfone verkabelt bis in den Technikkaller, dedizierte Kabel für proprietäre Lösungen) wird kein Bauherr in sein Haus aufnehmen wollen so dass das für die Hersteller natürlich auch nicht lukrativ ist. Die Integration in einen Smarten Lautsprecher macht daher Sinn und auch die Einbindung via IP ist doch wesentlich flexibler. Nur die Auswertung sollte eben lokal und über mehrere Lautsprecher zentral erfolgen so dass sich in mehreren Zimmern die Assistenz nutzen lässt.
Aber auch ich denke das der Aufwand für ein mittelständiges Unternehmen wie ElabNet nicht zu stemmen wäre. Die Konkurrenz von Alexa & Co ist nunmal da und die Funktionsmöglichkeiten aufzuholen wäre nicht machbar. Warten wir einfach noch ein paar Jahre - vielleicht gibt es ja dann mehr Open Source Lösungen die das out-of-the-box können.
Eine spezielle Installation (Microfone verkabelt bis in den Technikkaller, dedizierte Kabel für proprietäre Lösungen) wird kein Bauherr in sein Haus aufnehmen wollen so dass das für die Hersteller natürlich auch nicht lukrativ ist. Die Integration in einen Smarten Lautsprecher macht daher Sinn und auch die Einbindung via IP ist doch wesentlich flexibler. Nur die Auswertung sollte eben lokal und über mehrere Lautsprecher zentral erfolgen so dass sich in mehreren Zimmern die Assistenz nutzen lässt.
Aber auch ich denke das der Aufwand für ein mittelständiges Unternehmen wie ElabNet nicht zu stemmen wäre. Die Konkurrenz von Alexa & Co ist nunmal da und die Funktionsmöglichkeiten aufzuholen wäre nicht machbar. Warten wir einfach noch ein paar Jahre - vielleicht gibt es ja dann mehr Open Source Lösungen die das out-of-the-box können.
TWS 2600 ID:172, VPN offen, Reboot erlaubt
-
- Reactions:
- Beiträge: 1225
- Registriert: Sa Aug 11, 2018 10:52 pm
- Wohnort: Oberbayern
- Hat sich bedankt: 250 Mal
- Danksagung erhalten: 887 Mal
- Kontaktdaten:
Nein, natürlich nicht. Dazu ist der KNX viel zu langsam!supernode hat geschrieben: ↑Fr Aug 24, 2018 11:17 pm Die Sprache zu verstehen ist für mich nur ein erster Schritt. Es kommt viel mehr darauf an was dann alles gemacht werden kann. Nur die Rollos oder das Licht zu steuern rechtfertigt den Aufwand nicht. Da müssen dann Termine/Erinnerungen eingetragen, irgendwelche Koch-Timer aufgezogen eine Nachricht an irgendwen geschickt werden können usw. Da sehe ich die Möglichkeiten die ein kleiner Microcontroller in einer Unterputzdose - angebunden via KNX - hat als nicht ausreichend an.
Es braucht nicht viele Worte für Sprache. Und in einem Spezialgebiet noch wesentlich weniger. Für unseren Zweck vielleicht 200?(*)
Mein Ansatz wäre gewesen, dass Sprache-zu-Wortnummer dezentral läuft. Das macht der µC/DSP/o.ä. und sendet dann über den KNX nur die erkannten Worte. Bei üblichen Verb-Objekt-Eigenschaft Kombinationen ("Schalte Licht ein!") wären das gerade mal 3 Byte die über das grüne Kabel gehen müssten.
Zentral, also z.B. auf dem TimberWolf, werden dann diese Wortnummern (+ ggf. Meta-Infos wie welcher Sender, also welcher Raum) geparst und in entsprechende Aktionen (Rollladen, Licht, Eierkocher...) übersetzt und ausgeführt.
Für mich war der Preis auch immer abschreckend - und der Nutzen viel zu gering. Licht machen die Präsenzmelder, Rollladen die Automatik (in geeignetem Zustandsautomaten

Wir machen hier ein Smart-Home um eben möglichst nichts mehr bedienen zu müssen, sonst wäre es ja nur ein Mikroschalter-statt-Installationsschalter-Home. Oder mit Spracherkennung ein Sprache-statt-Installationsschalter-Home.
----
(*) https://de.wikipedia.org/wiki/Wortschatz
Wer in einer fremden Sprache etwa 1000 Wörter der Alltagssprache beherrscht, das heißt grammatikalisch und semantisch richtig anwenden kann, kommt im jeweiligen Land schon gut zurecht.
CometVisu Entwickler - Bitte keine PNs, Fragen gehören in das Forum, damit jeder was von den Antworten hat!
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache
-
- Elaborated Networks
- Reactions:
- Beiträge: 10713
- Registriert: So Aug 12, 2018 9:27 am
- Wohnort: Frauenneuharting
- Hat sich bedankt: 5304 Mal
- Danksagung erhalten: 8685 Mal
- Kontaktdaten:
Ich finde die Diskussion sehr interessant. Unser Standpunkt:
lg
Stefan
- Zunächst werden wir Alexa integrieren. Das wird nicht jeder nutzen wollen, ist jedoch einfach machbar.
- Es gibt auch kaufbare Angebote für ofline-Erkennung. Das Hauptproblem ist, wo kommen die Mikrophne her? Man müsste also die kaufbaren Lautsprecher auf einen lokalen Service umbiegen können. Da wird es sicher was geben, wird wohl ein Kickstarter Projekt werden
lg
Stefan
Zuletzt geändert von StefanW am Sa Aug 25, 2018 12:39 am, insgesamt 2-mal geändert.
Stefan Werner
Product Owner für Timberwolf Server, 1-Wire und BlitzART
Bitte WIKI lesen. Allg. Support nur im Forum. Bitte keine PN
Zu Preisen, Lizenzen, Garantie, HW-Defekt an service at elabnet dot de
Link zu Impressum und Datenschutzerklärung oben.
Product Owner für Timberwolf Server, 1-Wire und BlitzART
Bitte WIKI lesen. Allg. Support nur im Forum. Bitte keine PN
Zu Preisen, Lizenzen, Garantie, HW-Defekt an service at elabnet dot de
Link zu Impressum und Datenschutzerklärung oben.
-
- Reactions:
- Beiträge: 64
- Registriert: So Aug 12, 2018 7:39 am
- Hat sich bedankt: 10 Mal
- Danksagung erhalten: 29 Mal
Ja, mit dem erkennen bestimmer Worte ginge es womöglich. Wenn er denn das tiefste "boarisch" verstehen kann 
Bei Youtube finden sich auch Smart-Mirror-Projekte die eine KI eingebaut haben und via Sprache steuerbar sind. Was mich stört ist die bzw. SIND die Gedenksekunden bis die KI antwortet. Das müsste deutlich reaktionsfreudiger sein.
Ach, was könnte man nicht alles machen wenn man mehr Zeit hätte...

Bei Youtube finden sich auch Smart-Mirror-Projekte die eine KI eingebaut haben und via Sprache steuerbar sind. Was mich stört ist die bzw. SIND die Gedenksekunden bis die KI antwortet. Das müsste deutlich reaktionsfreudiger sein.
Ach, was könnte man nicht alles machen wenn man mehr Zeit hätte...
TWS 2600 ID:172, VPN offen, Reboot erlaubt
-
- Reactions:
- Beiträge: 1225
- Registriert: Sa Aug 11, 2018 10:52 pm
- Wohnort: Oberbayern
- Hat sich bedankt: 250 Mal
- Danksagung erhalten: 887 Mal
- Kontaktdaten:
Dann gehe jetzt auf https://voice.mozilla.org/de und spreche in schönster Mundart die vorgegebenen Beispielsätze ein.
Das Mozialla-Projekt hat das "Problem", dass die vielen verfügbaren Sprachschnipsel viel zu gut sind. Die sind von Profis an guten Mikrophonen in guter Umgebung eingesprochen. Daher wollen die über dieses Projekt und eine viel breitere Sprachbasis haben.
Und wenn Du dort eingesprochene Sätze sponsorst hast Du mit ein paar Minuten Deiner Zeit dafür gesorgt, dass genau Deine Stimme in Zukunft von allen Projekten die diese Daten nutzen deutlich besser erkannt wird

CometVisu Entwickler - Bitte keine PNs, Fragen gehören in das Forum, damit jeder was von den Antworten hat!
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache
CometVisu Fragen, Bugs, ... bitte im Entwicklungs-Forum, hier nur spezifisches für CV<->Timberwolf.
TWS 2500 ID: 76 + TP-UART - VPN offen, Reboot nur nach Absprache