Hi@All,
System läuft "noch" einwandfrei, nvme ist zu 6% belegt
unter Services - SMART - Info - Health erhalte ich folgende Info:
smartctl 7.5 2025-04-30 r5714 [FreeBSD 14.3-RELEASE-p7 amd64] (local build)
Copyright (C) 2002-25, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF SMART DATA SECTION ===
SMART overall-health self-assessment test result: FAILED!
- NVM subsystem reliability has been degraded
Zusätzliche Info unter View Logs - Self-Test - View
smartctl 7.5 2025-04-30 r5714 [FreeBSD 14.3-RELEASE-p7 amd64] (local build)
Copyright (C) 2002-25, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF SMART DATA SECTION ===
Self-test Log (NVMe Log 0x06, NSID 0xffffffff)
Self-test status: No self-test in progress
Num Test_Description Status Power_on_Hours Failing_LBA NSID Seg SCT Code
0 Short Completed: failed segments 24806 - 1 2 - -
1 Short Completed: failed segments 24403 - 1 2 - -
2 Short Completed: failed segments 22771 - 1 2 - -
3 Short Completed: failed segments 22771 - 1 2 - -
Ausgabe von gpart show mit SSH - Shell:
=> 40 488397088 nda0 GPT (233G)
40 532480 1 efi (260M)
532520 1024 2 freebsd-boot (512K)
533544 984 - free - (492K)
534528 16777216 3 freebsd-swap (8.0G)
17311744 471085056 4 freebsd-zfs (225G)
488396800 328 - free - (164K)
Meine grundsätzliche Frage(n):
Ist der Austausch der nvme schon notwendig ?
Gibt es eine Art "Windows-chkdsk" mit Reparatur ?
Ein Clonen der nvme wäre meinerseits kein Problem
oder sollte ich bei "Null" neu beginnen ? Backup der Eintellunge ist vorhanden
LG
Christian
Hi,
M.2 500GB bestellt und geliefert, sage und schreibe € 90
M.2 Clone Station bestellt, sollte morgen eintreffen, kann man "immer" brauchen
Inzwischen eine Reserve-Firewall, OPNsense DEC750 mit 1TB + 16GB , mit meinen diversen VLANs etc. grundlegend konfiguriert,
falls es Probleme beim Clonen etc. geben sollte
Werde weiter berichten
LG
Christian
kriegst du die terrybytes written heraus?
wäre ja interessant zu wissen, ob das ding totgeschrieben wurde und man da vielleicht die ursache finden muss
Warum klonen, wenn die vorhandene sicher Probleme hat? Neu installieren, Config zurückspielen, fertig. Solltest du bisher nicht mit ZFS installiert haben, solltest du das diesmal tun.
Guten Abend,
war am Eis - Eisstock schiessen
nach der Arbeit folgendes durchgeführt:
Netzwerkkabel numeriert, 1 x IPMI, 3 x RJ45 1G, 2 x RJ45 10G, 2 x SFP+ 😎
Hardware aus dem Rack ausgebaut, gereinigt, M.2 entnommen, war doch eine 256 GB, hatte ich noch rumliegen
Offline gecloned - no risk no fun - Dauer 10 Minuten !!!
Alles wieder zusammengebaut und eingebaut
und läuft wieder einwandfrei - irgendwie subjektiv "flotter" als vorher
LG
Christian
Screenshot Crystal Disk Info der alten M.2
Crystal Disk Info.png
Das sind 106TB geschrieben in 3 Jahren. (Das Rating der Platte ist 150TB)
Das ist verdammt viel?!
Ich vermute du hast irgendwo ein Log Spamming Sondergleichen und wirst dir auch deine neue Festplatte killen...
Habe unterm System/Settings/Miscellaneous
/var/log RAM disk
/tmp RAM disk
aktiviert
weiters unter Reporting/Settings
Round-Robin-Database deaktiviert
werde weiter beobachten
Als ich meine erste DEC750 bekam, habe ich mich nach wenigen Wochen gewundert, wieso die SSD schon bei 2% lag. Ich habe dann auch gesehen, dass RRD und Logging viel schreiben. Natürlich habe ich dann mit RAM-Disk gearbeitet, aber das brachte weniger als erwartet. Das lag einerseits daran, dass RRD m.W. immer auf die SSD schreibt, was Du ja jetzt deaktiviert hast (gut!).
Andererseits war es aber so, dass die ZFS Commits suboptiomal waren. Das wurde dann mit 23.7.12 geändert - Franco hat mal was darüber geschrieben (https://forum.opnsense.org/index.php?msg=188168). Bei den später neu eingerichteten Instanzen war das Problem um Größenordnungen kleiner.
Eventuell auch mal vfs.zfs.txg.timeout (90) und vfs.zfs.dirty_data_sync_percent (5) checken.
Und wenn man Netflow verwenden möchte, auf gar keinen Fall auf der Firewall laufen lassen sondern in ein geeignetes System exportieren, was die OPNsense ganz prima kann.
Danke für die Infos
vfs.zfs.txg.timeout (90) und vfs.zfs.dirty_data_sync_percent (5)
hab ich überprüft, ist auf 90 bzw. 5 eingestellt
netflow ist deaktiviert
Hi,
die verbaute "neue" 256GB nvme hat auch schon ca. 4000 Stunden intus
habe angefangen täglich zwischen 17:00 und 18:00 die
Data Units written in einer Ecel-Tabelle einzutragen
Momentan im Schnitt ca. 146 GB / 24 Stunden
d.h. auf 1 Jahr hochgerechnet ca. 53.3 TB !!!!!
Werde als nächstes (Ende nächster Woche) Zenarmor deaktivieren, mir fällt sonst nicht anderes ein,
außer Ihr habt noch Tips für mich
In der Zwischenzeit sollte ich doch eine gewisse Anzahl von Datensätzen für die Excel-Tabelle haben,
um die Hochrechnung besser zu belegen ...
Bildschirmfoto 2026-02-08 um 17.36.41.png
Aktueller Stand:
Zenarmor ist der Schuldige
Datenbank für Reporting von Elasticsearch auf SQLite umgestellt - keine Besserung
Zenarmor-Engine gestoppt + BYPASS (keine Ahnung ob beides notwendig)
Data Units written < 4GB
Hochrechnung auf ein Jahr ca. 1.46 TB
1) Elasticsearch auf extern auslagern, benötigt subscrition, die $99 hätte ich noch
zB Zenarmor Home Edition (non commercial use), aber
This option is only available for Zenarmor Business plans ???
2) OPNsense Neuinstallation + Einspielen der config
oder als letzten Schritt, falls bei 2) keine Besserung
3) OPNsense Neuinstallation + Neukonfiguration
Könnte ohne Zenarmor auch leben, aber es blockt doch einiges
zB bei diversen "freien" Spielen am iPad, iPhone keine Werbung
oder natürlich
4) Zenarmor deinstallieren + Neuinstallation, einen Versuch wäre es wert
gsd Single, Wochenende dürfte hiermit verplant sein
Hi,
sry für die späte Info
Zenarmor deinstalliert und neu installiert, jetzt ist alles im grünen Bereich
Bin inzwischen fremd gegangen, UDM Pro Max zweiter Versuch, die erste habe ich mit
minimalen Verlust 12/25 auf willhaben.at verkauft ...
Die zweite ist noch im Rack, weil noch Platz ist
Also diese Zonebased Firewall ist wirklich ein Schmarrn,
entweder bin ich mit knapp 59 zu alt für so ein Zeug bzw. zu blöd, wobei ich beruflich mit Cisco, NetApp zu tun habe
Laufend Meldungen bzgl. geblockter Seiten, Zertifikate, pfoa, bin aber wirklich nur "teilweise" auf halbinoffiziellen Seiten unterwegs
Im Unifi Forum wurde ich als Iso 8 user bezeichnet (back 2 the roots als Thema bzw. Beitragsüberschrift)
Der Rest von Unifi, also APs, Switche etc. läuft ohne Probleme
Bin gerne auf OPNsense zurück, ist irgendwie strukturierter etc.
Vielleicht hätte ich nicht im Forum schreiben sollen, dass die Unifi FW nur noch Klicki-Bunti ist, wie ein iPhone/iPad
Bin aber selbst Apple-User
OPNsense rules
LG
C
Hallo allerseits,
schönes Thema. Dachte eigentlich auch die halten länger. Bin aber auch erst seit Ende 2023 mit NVMEs dabei.
Mir ist letztens meine System Disk 990 Pro 2TB gestorben. Die war in ~3 Jahren so gut wie unbenutzt... Da auf der Disk nur das OS war. TBW sozusagen fast "neu". Kühlung etc kann ich auch ausschließen. Steckt unter der Heatsink eines Aorus Master X670E. Also ein massiver Kühlblock
Bei meiner OPNsense fiel mir auch auf, dass eigentlich zu viel geschrieben wird. Das habe ich nun auf ein minimum reduziert.
=> RAM disk und logging auf extern
date && smartctl -a /dev/nvme0 | grep "Data Units Written" Sat Jun 21 10:37:21 CEST 2025 [b]Data Units Written: 30,577,050 [15.6 TB][/b]
date && smartctl -a /dev/nvme0 | grep "Data Units Written" Sun Mar 15 08:35:05 CET 2026 [b]Data Units Written: 31,413,488 [16.0 TB][/b]
Macht nach Adam Ries: ≈ 1.60 GB pro Tag
Einzige was ich auch noch ausgeknippst habe, war das logging von Suricata. Hatte dazu einen Thread hier aufgemacht und ebenfalls eine Github issue.
Wäre cool, wenn jemand Vergleichwerte beisteuern kann.
Edit: Nebenher heißt das Layer 8 / L8... Nix Iso.. Oder auch Fehler 40, oder halt DAU....
Ref: https://de.wikipedia.org/wiki/Layer_8
Bin von ca. 150 GB (!), einmal sogar 260 GB, bei ca. 12 GB gelandet - also im grünen Bereich
RAM disk aktiviert etc.
OK Layer 8, momentan ist bei mir in der Firma der ID10T Fehler ein Renner
Vor zig Jahren hatte unser Admin eine A4 Seite mit "Intel inside - Idiot outside" auf der Türe angebracht
kam nicht so gut an bzw. wurde bald entfernt