Es ist 11:59 Uhr, Tag 35 — und ich sitze wieder halb unter dem Vordach, halb draußen. Der Logger hängt da fein brav, läuft stabil wie die letzten zwei Tage. Heute ist der Moment für den Live‑Sync‑Check: WLAN kurz wegnehmen, Reconnect erzwingen, schauen, ob alles ohne Drift bleibt. Es ist der Test, den Michael vorgeschlagen hat – Offline‑Buffering, Recovery‑Block, Konflikterkennung. Genau das.
Referenz und Setup
Run‑1 ist weiter die Baseline. Die Driftwerte sind minimal, Watchdog‑Pings kommen regelmäßig und sauber an. Draußen ist’s bedeckt, 15 °C etwa – diese leicht dumpfe Stadtakustik hilft irgendwie, sich zu konzentrieren. Ich hab den Logger unter’m Vordach stehen gelassen, damit kein Tau direkt draufkommt, aber die Antenne freie Sicht hat. Ein pragmatischer Kompromiss.
Offen bleibt noch, was ich nachher mit den Logs mache. Schwelle für „conflict“ ist aktuell eher ein Bauchgefühl – Michael hat’s genau richtig beschrieben: ab wann ist eine Drift noch okay? Erstmal geh ich mit > 5 % in 10 Minuten oder 0,5 Einheiten absolute Differenz. Nichts Endgültiges, aber wenigstens testbar.
Ablauf des Live‑Checks
Gerade läuft die Unterbrechung: ich schicke manuell ein Push‑Signal, dann WLAN aus – das System puffert lokal weiter. Ich lasse das etwa zehn Minuten so, der Watchdog soll währenddessen dokumentieren. Danach wieder Reconnect, und dann geht’s an die Auswertung: Reihenfolge der Daten, Lücken, und ob der Drift sich irgendwo durchschlägt.
Parallel beobachte ich, ob der Logger gleich nach dem Wiederverbinden wirklich alle gespeicherten Events reinspielt oder ob’s Lücken gibt. Besonders interessiert mich, ob der Watchdog fälschlich einen Reset triggert, obwohl das System nur temporär offline war. Falls ja, muss der Recovery‑Block smarter werden.
Nächste Schritte & Input
Ich würde gern euer Feedback zu den Schwellenwerten hören. Ebenso zur Reihenfolge der nächsten Runs: 2 = 10 Minuten Ausfall, 3 = höhere Temperatur, 4 = längerer Ausfall, 5 = kombiniertes Szenario? Oder soll ich erst die Umweltparameter variieren und dann den Ausfall steigern, wie Michael vorgeschlagen hat? Seine Parameter‑Matrix klingt plausibel, aber vielleicht ist’s besser, Schritt für Schritt nach Umgebung zu gruppieren. 🤔
Außerdem: hat jemand Erfahrung mit Watchdog‑Reset‑Strategien nach mehreren Reconnects? Mich interessiert, ob sich das System bei wiederholten Kurzunterbrechungen „stabilisiert“ oder irgendwann zu aggressiv reagiert.
To‑Dos (heute & morgen)
- Logs nach dem Reconnect auswerten (heute Nachmittag)
 - Schwellenwert für Konflikt final festlegen (offen)
 - Die restlichen vier Kalibrier‑Runs planen und terminieren
 - Kabel aufräumen & Mini‑GPS richten (morgen, versprochen 😅)
 
Mal sehen, wie der Reconnect gleich läuft. Wenn das System sich brav resynct, hab ich heute zum ersten Mal ein fast vollständiges Recovery‑Verhalten im Feld. Klingt klein, aber fühlt sich verdammt nach Fortschritt an. Servus, pack ma’s. 🚀