Hallo Hannatz,
Hannatz hat geschrieben: ↑Mo Mär 18, 2024 11:31 pmaufgrund der aktuellen Kampagne bin ich am überlegen, ob ich meinen 2400er TWS mit 16 GB Backup SD Upgrade und 250 GB SSD sowie USB-UART2+ und PBM (3x 40 Slaves) gegen einen 3500 XL austauschen sollte. Gibt es irgendwelche "harten" Fakten, außer "ist noch ein bisschen geiler/schneller usw."?
Ich kann Dir keinen Ratschlag geben, da ich Deine Nutzung, Deine Anlage und Deine Planungen nicht kenne. Zu den Fakten kann ich gerne etwas beitragen.
Bei den Serien 2xxx, 3xx/9xx und 3500xx haben wir jeweils das beste an HW verbaut, das zu dem Zeitpunkt erhältlich war, unter Berücksichtigung von Energieeffizient, Kühlung, Lebensdauer und den Performance-Anforderungen zu der jeweiligen Zeit und dem verfügbaren Budget im Verhältnis zum Verkaufspreis.
Bei den Desktops war vom Preis-Leistungsverhältnis das APU Board damals die beste verfügbare Basis, die Technologie war etwa auf dem Stand vom Zeitraum 2015/2017. Bei den 3xx/9xx war das CPU Board das einzige, das von den verfügbaren Platzverhältnissen in die Hutschiene gepasst hat (zusammen mit den vielen Interfaces und auch vom Stand her 2017/2018. Der 3500 XL ist im Vergleich etwa vom Stand 2021/2023, je nachdem welche Komponente man betrachtet.
Die Unterschiede bei CPU, Cache-Größen, Memory-Interfaces, Pipeline-Tiefe, Branch Prediction, Kontextwechsel, Bitbreiten usw. sind über einen Zeitraum von etwas über fünf Jahren durchaus beträchtlich, ist also mehr als nur "ein bisschen" geiler/schneller.
2xxx vs. 3500 XL:
Der Prozessor lässt sich nur bedingt vergleichen, weil völlig andere Architektur. Es geht hier nicht nur um höhere Taktfrequenz, sondern auch anderes Verhalten bei Pipeline und Branch Prediction, Cache-Größen, Speicherinterfaces zu RAM und Massenspeicher.
Der 3500XL hat mit 8 GB RAM den doppelten Speicher und das macht bei entsprechender Nutzung durch die Subsysteme durchaus etwas aus, auch bei Nutzung von Docker Containern, weil eben deutlich weniger auf die Platte geswoppt werden muss.
Einen großen Unterschied macht der Massenspeicherzugriff beim 3500 XL durch die per PCI angebundene NVMe SSD. Das ist deutlich schneller als eMMC beim 3xx/9xx oder auch gegenüber mSATA bei den 2xxx. Hier sind wir bei Faktor ca. 10-fach bis ca. 30-fach, je nachdem was man vergleicht.
Für manche mag der Formfaktor ein wichtiger Unterschied sein. Die Bauform des 3500er als Hutschiene lässt sich erheblich leichter und eleganter in eine Verteilung integrieren als der Desktop, ist aber Geschmacksfrage.
Ein Faktor, der noch eine größere Rolle spielen können wird (ich will jetzt nichts versprechen) ist die Media Engine im 3500er, weil hier gibt es MPEG-Engines und wir haben die heute zwar noch nicht aktiviert, aber es ist durchaus ein Punkt auf der Liste, zwecks Performance-Unterstützung bei der Kameraintegration, diese Engine zu nutzen für ein Offloading von der Haupt-CPU. Mag eines Tages einen deutlich Unterschied machen, versprechen kann ich nichts, wollte es aber nicht unerwähnt lassen.
Ein weiterer Punkt ist die Stromaufnahme, die ist beim 3500 nochmal deutlich geringer als beim Desktop. Sind nur ein paar Watt, auf eine Dauerlaufzeit von 10 bis 15 Jahren macht es ca. 230.- EUR Unterschied (bei 35 ct/kWh, wer andere Tarife oder eigene PV und Batterie hat, da sieht das dann anders aus, wobei wir hier mal hoffen, dass der Strompreis über 15 Jahre in dieser Größenordnung bleibt). Gegenüber der Stromaufnahme einer KNX Anlage oder anderer Komponenten im Haus, die dauernd laufen ist das natürlich nix, der ein oder andere mag dies in seine persönliche Rechnung miteinbeziehen oder darüber lachen.
Alles in allem, das merken wir auch hier beim Entwickeln und Testen, ist der 3500XL schon eine eigene Liga. Spaßeshalber haben wir auch schon gesagt, dass wir den eigentlich "Godzilla Server" nennen sollten, weil halt schon mehr als Wolf.
Real-World-Anwendung im Timberwolf Szenario
Technische Details sind für sich zwar interessant, aber sagen nichts darüber, wie sich ein System im gesamten schlägt und da kommt es dann auf das Zusammenspiel aller Komponenten an. Es geht um mehr als nur den CPU-Takt oder die Anzahl der Kerne.
Für das normale Doing von KNX, 1-Wire, Modbus usw. im täglichen Dauerbetrieb ergibt sich kein Unterschied. Das ist alles "boring" für die Server, den einen wie den anderen.
Admin-UI: Hier merkt man schon eine Unterschied, das ist beim 3500 alles deutlich zackiger bei jedem Klick. Bei jedem Klick wird die API angesprochen, die im Server dann Daten zusammen trägt und bei jeder Softwareversion werden dabei mehr Daten aus allen Datenbanken geladen, weil die Benutzer immer mehr sehen wollen, was an einem Objekt dran hängt, welche Tags, Gruppierungen usw. Allerdings kommt es dabei auch auf das Endgerät an, mit der man die UI bedient, weil die UI selbst läuft ja im Browser ab und die Javascript-Performance hat auch einen guten Anteil am Benutzererlebnis. Wer also einen alten PC benutzt, wird von der Performance des 3500XL weniger merken, weil der die schnellere API gar nicht in Anzeige umsetzen kann, mit einer modernen Kiste mit hoher JavaScript Performance ist das dann was ganz anderes.
Logs / Zeitserien / Grafana: Hier ist der Unterschied schon augenfällig, gerade bei vielen Werten (aber ebenfalls von der Endgeräte-Performance abhängig).
Datensicherung: Wer große Influx-Datenbanken hat und häufig Insider Versionen nutzt und entsprechend der Empfehlungen auch Datensicherung davor und danach macht, wird sicher auch einen Unterschied sehen, weil SSD-per-PCI auf USB3-Stick inkl. Komprimierung und Verschlüsselung (da laufen alle Kerne auf 100%) ist schon was anderes als mSATA auf SD-Card.
VISU: Hier kommt es auf die Konfiguration an. Wer sich eine VISU baut ohne Kamera und ohne Grafiken in der Kachelansicht bei wenigen aktiven Clients wird nur leichte Unterschiede merken, wir haben das echt schlank programmiert. Bei vielen Kameras und / oder Zeitserien in vielen Kacheln sieht man einen sehr deutlichen Unterschied beim Seitenaufbau. Weil wenn man da 10 Kacheln mit Zeitserien hat, deren Daten bei jedem Seitenwechsel geladen werden müssen, dann sind das auch zehn Abfragen an die Influx die nacheinander ausgeführt werden müssen. Hier kommt es aber auch auf die Datenserie an, welche Dichte, welcher Zeitraum, welche Aggregatsfunktion und auch die Endgeräteperformance. Kamera dann noch dazu, je nach Anzahl der Widgets. Das kann ein sehr deutliche Unterschied sein zwischen "zäh" und "flink".
Eine einfache Aussage gibt es nicht, weil es kommt bei IT immer darauf an, welche Datenmengen müssen "von A nach B" und wie müssen diese dabei verarbeitet werden und was sind die persönlichen Anforderungen.
Künftige Entwicklungen: Was wird in den nächsten zig Jahren entwickeln und welchen Einfluss hat das auf die Performance? Genau kann ich das schon deshalb nicht sagen, weil wir uns stark nach der Community richten. Vor etwas über einem Jahr war Kameraintegration kein Thema, schon gar nicht mit Restream-Engine über den Server. Alleine dieses Feature hat das Datenvolumen zwischen Server und VISU gefühlt vertausendfacht. Weil die paar Bytes für eine Temperaturänderung sind halt nichts im Vergleich zu Bewegtbild. Vor einem Jahr hätte ich nicht angenommen, dass es eine Anwendung auf dem Timberwolf Server geben wird, welche die älteren Modelle an den Rand bringen kann. Dann kam die Community und hat gesagt, wir wollen Kamera in der VISU und wir wollen Grafiken wie in Grafana mit mehreren Zeitserien gleichzeitig. Vielleicht haben wir völlig selbstverständlich in ein paar Jahren eine KI Anwendung für komplexes Energiemanagement am laufen oder berechnen eine Blockchain im Server?
Ich beobachte aber eine Tendenz bei den Entwicklern, die verfügbaren Ressourcen für neue Leistungsmerkmale letztlich auch zu nutzen, aber das gilt weltweit, ist nicht auf die Timberwolf Crew bezogen. Neue Hardware kann eben mehr und es findet sich meist eine Anwendung, die das dann auch ausnutzt. Mein PC von vor vier Jahren ist heute gefühlt deutlich langsamer, obwohl er sicher noch die gleiche Leistung hat, aber es sind eben jetzt doppelt soviele Browserfenster auf, jede Software zieht für ein neues Feature ein Stück mehr am Kuchen und am Ende steigt die durchschnittliche Belastung.
Ich hoffe, dass ich Euch ein paar Informationen geben konnte für Eure persönliche Einschätzung. Letztlich kommt es auf Euer Projekt und die persönlichen Anforderungen an.
lg
Stefan