Hallo zusammen, weiß nicht ob es hier rein gehört. Ich habe folgendes Problem und zwar bekomme ich des öfteren die Fehlermeldung kein BMS gefunden für 5sec, das ist seit dem ich die Beta Version vor einem Monat installiert habe. Die Fehlermeldung hatte ich das letzte Mal im Juli 4 mal in der offiziellen Release. Darauf hin habe ich die Verkabelung geprüft aber nix gefunden.
Roll back to a GA release. If it resolves then stay there.
What GX do you have.
Please post issues in their own topics or existing ones that match your issue. Thanks.
Danke für die Info, werde ich in Zukunft so machen.
Gestartet habe ich mit der Version 3.70-62 und habe jetzt 3.70-81
Fehler Bestand seit der 3.70-62
What GX device do you have?
Cerbo gx Bj2022
Folgendes konnte ich heute beobachten, die Fehler Meldung kam heute wären dem Neustart vom cerbo gx. Was mich halt wundert das habe ich jetzt mal kontrolliert, der cerbo startet jeden Tag 2 bis 3 Mal neu und habe keine Ahnung warum.
Bei dem Screenshot kann man es gut sehen jeder hohe Pik ist ein Neustart.
Schaue unter services → BMS-Can port ob du da Error siehst.
So ja ist das die Verbindung.
Welches BMS ist das, muss am Protokoll und nicht die Verbindung liegen.
BMS ist von den pylontech. Wenn du das wissen wolltest.
While I can sort of read German, let me just respond in English. The Cerbo will reboot if the cpu load becomes too high, to prevent a runaway situation. It will become increasingly slower, if it can’t keep up (and act on old data etc).
Ah okay, kann man irgendwie raus finden was die CPU überlastet? Um eventuell den Fehler zu lokalisieren.
In Englisch zu antworten ist ja kein Problem gibt ja heutzutage gut Übersetzer ![]()
The watchdog will try to write a file to /data/log/watchdog_processlist.txt, which can contain a hint who is hogging the cpu.
watchdog_processlist.txt (21,6 KB)
well that doesn’t really explain the load. you might want to check svstat /service/* for services which are continuously being restarted.
service_status_snap.txt (2,4 KB)
Ich würde jetzt mal sagen es sieht soweit gut aus.
Danke fürs drüber schauen.
Wenn alles so harmlos in den Logs aussieht wird es schwierig. Aber du hast ja LARGE laufen… Man müsste mal deine Node-Red Flows prüfen. Der Cerbo ist sehr schwachbrüstig, und man muss die Load in den Flows schon sehr optimieren. Statt alle zig Flows unabhängig laufen zu haben, habe ich die meisten Aktionen seriell verknüpft, plus Delays. Damit kam ich bei meinen Flows von Abstürzen alle paar Stunden auf im Schnitt 1x pro Woche runter.
(Und ja, ich weiß dass man für größere Sachen ein externes NodeRed nehmen sollte, aber es ist so praktisch…
)
Du kannst ja mal 1 Tag alle Flows deaktivieren zum Test. So als erste Indikation ob es daher kommt.
You can run “top” on the cerbo, it will show the processes consuming cpu and how much.
Often these issues are on modified systems with third party drivers or code present.
Node Red functions can also cause overloads, when too much data needs to be processed.
Join nodes can dramatically increase the number of messages.
Filter and trigger nodes can help a lot.



