Hallo zusammen,
ich bin seit wenigen Wochen neu unterwegs in den Spheren von OPNsense.
Ich habe die OPNsense aufgesetzt und bereits einiges konfiguriert. Wass soll ich sagen die Kiste rennt, schwer war es nicht sonderlich die Kiste zum laufen zu bringen, aber ich bin ja noch am Anfang von allem.
Das Netzwerk am LAN Interface ist super schnell, pings unter 0,3ms auf allen Switchen ausser beim WLAN. Beim WLAN je nach Entfernung und Anzahl dazwischen geschateter Switche auch über 1ms. Die Datenübertragunsgeschwindigkeiten sind super oder gar Optimal.
Das WAN Interface, trotz das es hinter einem Speedport Pro Hybrid hängt, gibt mehr her als es Vertraglich soll, dies war vor der OPNsense nicht so.
Der Internets Service Provider ist die Telekom, ein Hybrid Vertrag mit 150Mbps Down und 50Mbps Upload.
Vor der OPNsense habe ich selten über 120Mbps im Download und immer unter 50Mbps im Upload gehabt.
Jetzt sind es fast immer 159Mbps Down und 59Mbps Upload. Das wird bald noch schneller wenn der Glasfaser Anschluss da ist aber bis dahin muss ich noch mit der Telekom auskommen.
Ich habe aber ein Problem mit der Geschwindigkeit der Datenübertragung von OpenVPN.
Anfangs, nach dem Setup des VPN Servers und der Installation vom OpenVPN Client, bekam ich nur Datenübrtragungsraten von 1MB/s durch den Tunnel.
Nach dem ich einiges hier gelesen habe, und einige Änderungen vorgenommen habe, komme ich auf manchmal 2,6MB/s durch den Tunnel. Dies zumindest nach der Anzeige des OpenVPN Client. OPNsense zeigt mir in dem Fall dann entsprechend um 26Mb/s an. Ich denke das sollte ja dann passen 2,6 Megabytes zu 26 Megabits oder nicht?
Aber generell finde ich den Durchsatz zu gering, die Hardware scheint nicht das Problem zu sein. Bei einer VPN Verbindung scheint die CPU unbeeindruckt, diese lüft laut Dashboard mit einer Auslastung um die 15% im Schnitt. 64GB Ram werden wahrscheinlich auch niemals ausgeschöpftm denn die durchschnittliche Auslastung des RAMs liegt noch bei 4,5%. Die M.2 SSD ist auf dem Mainboard und vermutlich bei weitem unterlastet.
Ich habe mit der Einstellung MTU gespielt und habe zusammen mit anderen Einstellungen das Ergebniss von 1MB/s auf 2,6MB/s verbessern können. Weiter komme ich aber nicht und da bitte ich um eure Hilfe und Tipps.
Hier ein Paar Daten zu meiner konfiguration:
Alle Ports welche vom Seedport weitergleitet werden können sind weitergeleitet, TCP und UDP.
Mainboard:
SuperMicro X10SDV-TP8F, 64GB Ram, 256 M.2 SSD
OPNSense Versions:
OPNsense 24.7.3_1-amd64
FreeBSD 14.1-RELEASE-p3
OpenSSL 3.0.14
Genutzte Board Interfaces: igb0 + igb5 Gigabit LAN (kein SPF)
OpenVPN Verschlüßelung: 2048 bit OpenVPN static key
VPN Protkoll: UDP
Netze:
LAN: 10.0.0.0/24
WAN: 10.10.0.0/28
VPN 10.10.10.0/24
WAN Interface
MTU = 1380
MSS = 1340
System--> Settings--> Tunables:
dev.igb.0.eee_disabled Disable Energy Efficiency environment 1
dev.igb.0.fc Flowcontrol runtime 0
dev.igb.1.eee_disabled Disable Energy Efficiency environment 1
dev.igb.2.eee_disabled Disable Energy Efficiency environment 1
dev.igb.3.eee_disabled Disable Energy Efficiency environment 1
dev.igb.4.eee_disabled Disable Energy Efficiency environment 1
dev.igb.5.eee_disabled Disable Energy Efficiency environment 1
dev.igb.5.fc Flowcontrol runtime 0
dev.igb.5.num_queues Queues environment 0
dev.igb.enable_aim Increase Netweork Efficiency environment 1
dev.igb.enable_msix Faster interrupt handling environment 1
dev.igb.max_interrupt_rate Increase interuppt rate environment 64000
dev.igb.rx_process_limit Unlimit packet processing environment -1
dev.igb.rxd Packet descriptors environment 2048
dev.igb.tx_process_limit Unlimited packet processing environment -1
dev.igb.txd Packet descriptrors environment 2048
dev.igb5.fc Flowcontrol environment 0
dev.pci.enable_msix Faster interrupt handling environment 1
net.inet.ip.maxfragpackets Do not accept fragments runtime 0
net.inet.ip.maxfragsperpacket Do not accept fragments environment 0
vfs.zfs.dirty_data_sync_percent environment default (5)
vfs.zfs.txg.timeout environment default (90)
Ich hoffe es kann geholfen werden :(|
Grüße
P.S: Hatte ich vorhin vergessen, das ist noch dank eines anderen Mitglieds im Boot folder:
# File starts below this line, use Copy/Paste #####################
# Check for interface specific settings and add accordingly.
# These ae tunables to improve network performance on Intel igb driver NICs
# Flow Control (FC) 0=Disabled 1=Rx Pause 2=Tx Pause 3=Full FC
# This tunable must be set according to your configuration. VERY IMPORTANT!
# Set FC to 0 (<x>) on all interfaces
dev.igb.0.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
dev.igb.1.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
dev.igb.2.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
dev.igb.3.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
dev.igb.4.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
dev.igb.4.fc=0 #Also put this in System Tunables dev.igb.<x>.fc: value=0
# Set number of queues to number of cores divided by number of ports. 0 lets FreeBSD decide
dev.igb.num_queues=0
# Increase packet descriptors (set as 1024,2048, or 4096) ONLY!
# Allows a larger number of packets to be processed.
# Use "netstat -ihw 1" in the shell and make sure the idrops are zero
# If the NIC has constant disconnects, lower this value
# if not zero then lower this value.
dev.igb.rxd="4096" # For i340/i350 use 2048
dev.igb.txd="4096" # For i340/i350 use 2048
net.link.ifqmaxlen="8192" # value here equal sum of above values. For i340/i350 use 4096
# Increase Network efficiency
dev.igb.enable_aim=1
# Increase interuppt rate
dev.igb.max_interrupt_rate="64000"
# Network memory buffers
# run "netstat -m" in the shell and if the 'mbufs denied' and 'mbufs delayed' are 0/0/0 then this is not needed
# if not zero then keep adding 400000 until mbufs are zero
#kern.ipc.nmbclusters="1000000"
# Fast interrupt handling
# Normally set by default. Use these settings to insure it is on.
# Allows NIC to process packets as fast as they are received
dev.igb.enable_msix=1
dev.pci.enable_msix=1
# Unlimited packet processing
# Use this only if you are sure that the NICs have dedicated IRQs
# View the IRQ assignments by executing this in the shell "vmstat -i"
# A value of "-1" means unlimited packet processing
dev.igb.rx_process_limit="-1"
dev.igb.tx_process_limit="-1"
###################################################
# File ends above this line ##################################