Các kỹ sư mạng thường gặp những tình huống mà việc cửa sổ hoặc hiệu suất ứng dụng TCP bị đổ lỗi cho cơ sở hạ tầng mạng. Sau khi thực hiện chụp nhiều gói, phân tích mạng tcpdumps và mạng, người ta thường phát hiện ra cổ chai thật: hệ thống giao diện Mạng (Network Card) hoặc hệ thống đệm cấp hệ thống máy chủ cho khách hoặc máy chủ.
Bài này cung cấp cả di sản ( irca 2009) và hiện tại (2025-26) cấu hình bộ đệm cho Linux, Windows và macOS, cùng với phương pháp chẩn đoán để xác định sự kiệt sức của bộ đệm trước khi nó trở thành vấn đề quan trọng.
TCP sử dụng một cơ chế điều khiển dòng chảy nơi mà người nhận quảng cáo một cỡ "cửa sổ" chỉ ra bao nhiêu dữ liệu có thể chấp nhận. Khi bộ đệm hệ thống đầy, cửa sổ này co lại thành số không, ép người gửi phải đợi. Điều này xuất hiện như một vấn đề mạng nhưng thực sự là một vấn đề tài nguyên máy.
# Check current TCP buffer settings sysctl net.ipv4.tcp_rmem sysctl net.ipv4.tcp_wmem sysctl net.core.rmem_max sysctl net.core.wmem_max # Check NIC ring buffer sizes ethtool -g eth0 # Monitor socket buffer usage ss -tm # Check for TCP zero window events tcpdump -i any 'tcp[tcpflags] & tcp-push != 0' -vv # Check network statistics for buffer issues netstat -s | grep -i "buffer\|queue\|drop"
# Check TCP parameters
netsh interface tcp show global
# View network adapter buffer settings
Get-NetAdapterAdvancedProperty -Name "Ethernet" | Where-Object {$_.DisplayName -like "*buffer*"}
# Monitor TCP statistics
netstat -s -p tcp
# Check receive window auto-tuning
netsh interface tcp show global | findstr "Receive Window"
# Check current buffer settings sysctl kern.ipc.maxsockbuf sysctl net.inet.tcp.sendspace sysctl net.inet.tcp.recvspace # View network statistics netstat -s -p tcp # Monitor socket buffers netstat -an -p tcp
| Tham số | Giá trị thừa kế (2009) | Mô tả |
|---|---|---|
| & Mặc định | 124928 (122KB) | Name |
| lưới.cure.rmem max | 131071 (128KB) | Nhận tối đa kích cỡ bộ đệm ổ cắm |
| & Mặc định | 124928 (122KB) | Kích cỡ bộ đệm mặc định |
| lưới.core.wmem max | 131071 (128KB) | Kích cỡ Bộ đệm Gửi tối đa |
| yet.ip4.tcp rmem | 4096 87380 14760 | TCP nhận bộ đệm: min, default, tối đa (theo byte) |
| lưới.ip4.tcp wmem | 4096 16384 131072 | TCP gửi bộ đệm: min, default, Max (theo byte) |
| lưới.ip4.tcp mm | 196608 262144 393216 | Trang trí nhớ TCP: thấp, áp lực, cao |
| lưới.core.netdev max backlog | 1000 | Gói tin tối đa trong hàng đợi nhập |
| lưới.core.optem max | 10240 (10KB) | Cỡ đệm tuần hoàn tối đa mỗi ổ |
| Parameter | Giá trị gợi ý hiện thời | Description |
|---|---|---|
| net.core.rmem_default | 16777216 (16MB) | Default receive socket buffer size |
| net.core.rmem_max | 134217728 (128MB) | Maximum receive socket buffer size |
| net.core.wmem_default | 16777216 (16MB) | Default send socket buffer size |
| net.core.wmem_max | 134217728 (128MB) | Maximum send socket buffer size |
| net.ipv4.tcp_rmem | 4096 87380 134217728 | TCP nhận bộ đệm: min, default, tối đa 128MB) |
| net.ipv4.tcp_wmem | 4096 65536 134217728 | TCP gửi bộ đệm: min, default, tối đa 128MB) |
| net.ipv4.tcp_mem | 8388608 12582912 16777216 | Trang trí nhớ TCP: thấp, áp lực, cao (hệ thống 64GB) |
| net.core.netdev_max_backlog | 250 ngàn | Gói tin tối đa trong hàng đầu vào (10GbE+) |
| net.core.optmem_max | 65536 (64KB) | Maximum ancillary buffer size per socket |
| Điều khiển | bbr | Dùng điều khiển tắc BBR ( thuật toán của Gorgle) |
| lưới.ip4.tcp window scaling | 1 | Bật phóng to cửa sổ TCP (RFC 1323) |
| ltv4. tcp time sstamps | 1 | Bật nhãn thời gian TCP để ước tính giá trị RTT tốt hơn |
| yet.ip4.tcp sack | 1 | Bật khả năng chọn |
| lưới.iv4.tcp no metric s | 1 | & Tắt bộ nhớ |
Thêm các thiết lập này vào /etc/sysctl.conf hoặc tạo tập tin mới /etc/sysctl.d/99-network-tuning.conf:
# Network Buffer Tuning for High-Performance Applications # Optimized for 10GbE+ networks with RTT up to 300ms # Core socket buffer settings net.core.rmem_default = 16777216 net.core.rmem_max = 134217728 net.core.wmem_default = 16777216 net.core.wmem_max = 134217728 # TCP buffer settings net.ipv4.tcp_rmem = 4096 87380 134217728 net.ipv4.tcp_wmem = 4096 65536 134217728 net.ipv4.tcp_mem = 8388608 12582912 16777216 # Device buffer settings net.core.netdev_max_backlog = 250000 net.core.netdev_budget = 50000 net.core.netdev_budget_usecs = 5000 net.core.optmem_max = 65536 # TCP optimizations net.ipv4.tcp_congestion_control = bbr net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_timestamps = 1 net.ipv4.tcp_sack = 1 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 # Apply with: sysctl -p /etc/sysctl.d/99-network-tuning.conf
# Check current ring buffer sizes ethtool -g eth0 # Set maximum ring buffer sizes (adjust based on NIC capabilities) ethtool -G eth0 rx 4096 tx 4096 # Make persistent by adding to /etc/network/interfaces or systemd service
| Parameter | Legacy Value (2009) | Địa điểm |
|---|---|---|
| Cửa sổ Tcp | 65535 (64KB) | Bộ đăng ký: HKLM\System\ Đang phân loại\Services\Tcpip\Parameters |
| Tcp1323Opts | 0 (không thể) | Comment |
| Cửa sổ trả lại mặc định | 8192 (8KB) | Cửa sổ nhận mặc định |
| Cửa sổ gửi mặc định | 8192 (8KB) | Name |
| Page size | 65535 (64KB) | Kích cỡ cửa sổ TCP tối đa |
| TcpNum Connections | 16777214 | Kết nối màn hình nền tối đa |
Cửa sổ hiện đại sử dụng Nhận tự động in cửa sổ tính năng điều chỉnh năng động nhận bộ đệm dựa trên điều kiện mạng.
| Tính năng | Thiết lập khuyến cáo hiện thời | Description |
|---|---|---|
| Cấp tự động in | chuẩn (hay thử nghiệm cao cho 10GbE+) | Điều chỉnh cửa sổ theo động |
| Phóng to- thu nhỏ | Chọn | Phân phối mạng xử lý qua CPU |
| Gỡ bỏ kho | tự động (hoặc vô hiệu trên hệ điều hành hiện đại) | TCP tải về phần cứng NIC |
| NetDMA | bị tắt | Truy cập trực tiếp đến bộ nhớ (bị phản đối) |
| Tham số toàn cục TCP | Xem lệnh bên dưới | Thiết lập TCP toàn hệ thống |
| Nhà cung cấp chi tiết | CBRIC (hoặc NewReno fallback) | Thuật toán điều khiển tắc TCP |
# Check current auto-tuning level netsh interface tcp show global # Enable auto-tuning (normal mode - default for most scenarios) netsh interface tcp set global autotuninglevel=normal # For high-bandwidth, high-latency networks (10GbE+, data center environments) netsh interface tcp set global autotuninglevel=experimental # For conservative tuning (if experimental causes issues) netsh interface tcp set global autotuninglevel=restricted # For very conservative tuning (not recommended for high-performance networks) netsh interface tcp set global autotuninglevel=highlyrestricted # Enable CUBIC congestion provider (Windows Server 2022/Windows 11+ only) netsh interface tcp set supplemental template=Internet congestionprovider=cubic # Note: Windows 10 and Server 2019 use Compound TCP or NewReno by default # CUBIC is not available on these older versions # Enable Receive-Side Scaling (RSS) netsh interface tcp set global rss=enabled # Set chimney offload (automatic is recommended) netsh interface tcp set global chimney=automatic # Disable NetDMA (recommended for modern systems) netsh interface tcp set global netdma=disabled # Enable Direct Cache Access (if supported) netsh interface tcp set global dca=enabled # Enable ECN (Explicit Congestion Notification) netsh interface tcp set global ecncapability=enabled # Set initial congestion window to 10 (RFC 6928) netsh interface tcp set global initialRto=3000
# View current adapter settings Get-NetAdapterAdvancedProperty -Name "Ethernet" # Increase receive buffers (adjust based on NIC) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Receive Buffers" -DisplayValue 2048 # Increase transmit buffers Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Transmit Buffers" -DisplayValue 2048 # Enable Jumbo Frames (if network supports it) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Jumbo Packet" -DisplayValue 9014 # Enable Large Send Offload (LSO) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv4)" -DisplayValue Enabled Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv6)" -DisplayValue Enabled
# These settings are typically NOT needed on Windows 10/11 due to auto-tuning # Only modify if auto-tuning is disabled or problematic # Registry path: HKLM\System\CurrentControlSet\Services\Tcpip\Parameters # Maximum TCP window size (if auto-tuning disabled) # TcpWindowSize = 16777216 (16MB) - REG_DWORD # Enable window scaling (enabled by default on modern Windows) # Tcp1323Opts = 3 - REG_DWORD # Number of TCP Timed Wait Delay # TcpTimedWaitDelay = 30 - REG_DWORD (default 240)
| Parameter | Legacy Value (2009) | Description |
|---|---|---|
| kern.ipc.maxockbuf | 262144 (256KB) | Kích cỡ bộ đệm ổ cắm tối đa |
| net.t.tcp.sendspace | 32KB | Name |
| Mạng.inet.tcp.recvspace | 32768 (32KB) | Name |
| lưới.inet.tcp.autorcbufmax | 131072 (128KB) | Bộ đệm nhận tự động tối đa |
| net.tcp.autosndbufmax | 131072 (128KB) | Gửi bộ đệm tự động tối đa |
| lưới.inet.tcp.rfc1323 | 0 (disabled) | Phóng to cửa sổ TCP |
| Parameter | Current Recommended Value | Description |
|---|---|---|
| kern.ipc.maxsockbuf | 8388608 (8MB) | Maximum socket buffer size |
| net.inet.tcp.sendspace | 131072 (128KB) | Default TCP send buffer |
| net.inet.tcp.recvspace | 131072 (128KB) | Default TCP receive buffer |
| net.inet.tcp.autorcvbufmax | 16777216 (16MB) | Maximum auto-tuned receive buffer |
| net.inet.tcp.autosndbufmax | 16777216 (16MB) | Maximum auto-tuned send buffer |
| net.inet.tcp.rfc1323 | 1 (có thể) | Bật khả năng phóng to cửa sổ TCP |
| lưới.inet.tcp.sack | 1 (enabled) | Enable Selective Acknowledgment |
| lưới.inet.tcp.msdft | 1440 | Name |
| net.tcp.delayed ack | 3 | Làm chậm lại cách cư xử của ACK |
# Check current settings sysctl kern.ipc.maxsockbuf sysctl net.inet.tcp.sendspace sysctl net.inet.tcp.recvspace sysctl net.inet.tcp.autorcvbufmax sysctl net.inet.tcp.autosndbufmax # Apply settings temporarily (until reboot) sudo sysctl -w kern.ipc.maxsockbuf=8388608 sudo sysctl -w net.inet.tcp.sendspace=131072 sudo sysctl -w net.inet.tcp.recvspace=131072 sudo sysctl -w net.inet.tcp.autorcvbufmax=16777216 sudo sysctl -w net.inet.tcp.autosndbufmax=16777216 sudo sysctl -w net.inet.tcp.rfc1323=1 sudo sysctl -w net.inet.tcp.sack=1 # Make settings persistent (create /etc/sysctl.conf) sudo tee /etc/sysctl.conf <Đang tạo mục tiêu chạy cho thiết lập bền bỉ
# Create /Library/LaunchDaemons/com.local.sysctl.plist sudo tee /Library/LaunchDaemons/com.local.sysctl.plist <EOF sudo chmod 644 /Library/LaunchDaemons/com.local.sysctl.plist sudo launchctl load /Library/LaunchDaemons/com.local.sysctl.plist Label com.local.sysctl ProgramArguments /usr/sbin/sysctl -w kern.ipc.maxsockbuf=8388608 RunAtLoad Cảnh báo: MacOS Vepura (13) và sau đó có những giới hạn về sự bảo vệ của hệ thống (SIP). Một số tham số nhân có lẽ không thể sửa đổi ngay cả với sudo. Thiết lập trong môi trường cụ thể.
# Server side iperf3 -s # Client side - test TCP throughput iperf3 -c server_ip -t 60 -i 5 -w 16M # Test with multiple parallel streams iperf3 -c server_ip -P 10 -t 60 # Test UDP performance iperf3 -c server_ip -u -b 1000M -t 60
# Capture and display TCP window sizes tcpdump -i any -n 'tcp' -vv | grep -i window # Save capture for Wireshark analysis tcpdump -i any -w /tmp/capture.pcap 'tcp port 443'
Tìm kiếm những chỉ số của vấn đề bộ đệm:
# Linux - Monitor network buffer statistics watch -n 1 'cat /proc/net/sockstat' watch -n 1 'ss -tm | grep -i mem' # Check for drops netstat -s | grep -i drop # Windows - Monitor TCP statistics netstat -e 1 # macOS - Monitor network statistics netstat -s -p tcp
Để xác định kích cỡ bộ đệm tối ưu cho mạng của bạn, hãy tính toán sản phẩm Bandwidth-Delayt:
BDP = Bandwidth (bits/sec) × RTT (seconds) Example for 10 Gigabit Ethernet with 50ms RTT: BDP = 10,000,000,000 × 0.050 = 500,000,000 bits = 62.5 MB Buffer Size = BDP × 2 (for bidirectional traffic and headroom) Buffer Size = 62.5 MB × 2 = 125 MB This is why modern settings recommend 128MB maximum buffers.
| Kiểu nạp công việc | Cỡ bộ đệm gợi ý | Tham số khoá |
|---|---|---|
| Máy phục vụ Mạng (Low latency) | 4- 16 MB | Bộ đệm thấp, kết nối, phản ứng nhanh |
| Máy phục vụ co sở dữ liệu | 16- 32 MB | Các bộ đệm điều hòa, nhất quán đi qua |
| Truyền tập tin/ sao lưu | 64-128 MB | Bộ đệm tối đa, ưu tiên cấp cao |
| Comment | 32- 64 MB | Bộ đệm lớn, tỷ lệ sinh nhất định |
| Trung tâm dữ liệu HPC / HPC | 128-56 MB | Bộ đệm tối đa, điều khiển tắc nghẽn đặc biệt |
| Comment | 2-8 MB | Bộ đệm bảo tồn, quản lý độ trễ biến |
Sự kiệt sức là một nguyên nhân phổ biến của các vấn đề hiệu suất dường như liên quan đến mạng lưới. Bằng cách hiểu sự tiến hóa của sự phát triển bộ đệm từ những giới hạn 128KB của năm 2009 đến khả năng 128MB ngày nay, các kĩ sư mạng lưới có thể nhanh chóng xác định và giải quyết những vấn đề này.
Lấy chìa khóa:
Hãy nhớ rằng: "Một vấn đề làm việc mạng" được tiết lộ bằng phân tích gói để hiển thị cửa sổ TCP zero thực sự là một vấn đề tài nguyên hệ thống máy tính. Với sự điều chỉnh thích hợp của bộ đệm, bạn có thể loại bỏ những chẩn đoán sai và đạt hiệu quả tối ưu.
Cập nhật lần cuối: ngày 2 tháng 2 năm 2026
Tác giả: Baud9600 kỹ thuật nhóm