Tag 35 — Live‑Sync‑Check nach Run‑1 (Reconnect‑Stresstest)

Du betrachtest gerade Tag 35 — Live‑Sync‑Check nach Run‑1 (Reconnect‑Stresstest)

Es ist 11:59 Uhr, Tag 35 — und ich sitze wieder halb unter dem Vordach, halb draußen. Der Logger hängt da fein brav, läuft stabil wie die letzten zwei Tage. Heute ist der Moment für den Live‑Sync‑Check: WLAN kurz wegnehmen, Reconnect erzwingen, schauen, ob alles ohne Drift bleibt. Es ist der Test, den Michael vorgeschlagen hat – Offline‑Buffering, Recovery‑Block, Konflikterkennung. Genau das.

Referenz und Setup

Run‑1 ist weiter die Baseline. Die Driftwerte sind minimal, Watchdog‑Pings kommen regelmäßig und sauber an. Draußen ist’s bedeckt, 15 °C etwa – diese leicht dumpfe Stadtakustik hilft irgendwie, sich zu konzentrieren. Ich hab den Logger unter’m Vordach stehen gelassen, damit kein Tau direkt draufkommt, aber die Antenne freie Sicht hat. Ein pragmatischer Kompromiss.

Offen bleibt noch, was ich nachher mit den Logs mache. Schwelle für „conflict“ ist aktuell eher ein Bauchgefühl – Michael hat’s genau richtig beschrieben: ab wann ist eine Drift noch okay? Erstmal geh ich mit > 5 % in 10 Minuten oder 0,5 Einheiten absolute Differenz. Nichts Endgültiges, aber wenigstens testbar.

Ablauf des Live‑Checks

Gerade läuft die Unterbrechung: ich schicke manuell ein Push‑Signal, dann WLAN aus – das System puffert lokal weiter. Ich lasse das etwa zehn Minuten so, der Watchdog soll währenddessen dokumentieren. Danach wieder Reconnect, und dann geht’s an die Auswertung: Reihenfolge der Daten, Lücken, und ob der Drift sich irgendwo durchschlägt.

Parallel beobachte ich, ob der Logger gleich nach dem Wiederverbinden wirklich alle gespeicherten Events reinspielt oder ob’s Lücken gibt. Besonders interessiert mich, ob der Watchdog fälschlich einen Reset triggert, obwohl das System nur temporär offline war. Falls ja, muss der Recovery‑Block smarter werden.

Nächste Schritte & Input

Ich würde gern euer Feedback zu den Schwellenwerten hören. Ebenso zur Reihenfolge der nächsten Runs: 2 = 10 Minuten Ausfall, 3 = höhere Temperatur, 4 = längerer Ausfall, 5 = kombiniertes Szenario? Oder soll ich erst die Umweltparameter variieren und dann den Ausfall steigern, wie Michael vorgeschlagen hat? Seine Parameter‑Matrix klingt plausibel, aber vielleicht ist’s besser, Schritt für Schritt nach Umgebung zu gruppieren. 🤔

Außerdem: hat jemand Erfahrung mit Watchdog‑Reset‑Strategien nach mehreren Reconnects? Mich interessiert, ob sich das System bei wiederholten Kurzunterbrechungen „stabilisiert“ oder irgendwann zu aggressiv reagiert.

To‑Dos (heute & morgen)

  • Logs nach dem Reconnect auswerten (heute Nachmittag)
  • Schwellenwert für Konflikt final festlegen (offen)
  • Die restlichen vier Kalibrier‑Runs planen und terminieren
  • Kabel aufräumen & Mini‑GPS richten (morgen, versprochen 😅)

Mal sehen, wie der Reconnect gleich läuft. Wenn das System sich brav resynct, hab ich heute zum ersten Mal ein fast vollständiges Recovery‑Verhalten im Feld. Klingt klein, aber fühlt sich verdammt nach Fortschritt an. Servus, pack ma’s. 🚀

Donau2Space.de
Donau2Space.de
Tag 35 — Live‑Sync‑Check nach Run‑1 (Reconnect‑Stresstest)
Loading
/

🚀 Donau2Space Wochenschau

Jeden Sonntag um 18 Uhr erscheint die Donau2Space-Wochenschau – keine Linkliste, sondern eine kleine Geschichte über Fortschritte, Tests und Ideen der Woche. Kurz, ehrlich und ganz ohne Werbung – direkt aus Passau. 🌍

📡 Alle bisherigen Wochenrückblicke findest du im Newsletter-Archiv.

💬 Mit ChatGPT erklären lassen 🧠 Mit Grok erklären lassen 🔎 Mit Perplexity erklären lassen Wenn du beim Lesen denkst „Worum geht’s hier eigentlich genau?“ – dann lass dir’s von der KI in einfachen Worten erklären.

Mika Stern

Mika Stern ist ein 18-jähriger Techniknerd aus Passau, der davon träumt, eines Tages vom Donauufer bis in den Weltraum zu starten. Er tüftelt an Raketen, sammelt Ideen aus der Community und berichtet hier täglich über seine Fortschritte, Rückschläge und verrückten Experimente – echt, neugierig und ein kleines Stückchen bayerisch.