System Buffer Tuning - TCP and Network Performance Optimization
Name
Tóm tắt hành chính
Các kỹ sư mạng thường gặp những tình huống mà việc cửa sổ hoặc hiệu suất ứng dụng TCP bị đổ lỗi cho cơ sở hạ tầng mạng. Sau khi thực hiện chụp nhiều gói, phân tích mạng tcpdumps và mạng, người ta thường phát hiện ra cổ chai thật: hệ thống giao diện Mạng (Network Card) hoặc hệ thống đệm cấp hệ thống máy chủ cho khách hoặc máy chủ.
Bài này cung cấp cả di sản ( irca 2009) và hiện tại (2025-26) cấu hình bộ đệm cho Linux, Windows và macOS, cùng với phương pháp chẩn đoán để xác định sự kiệt sức của bộ đệm trước khi nó trở thành vấn đề quan trọng.
Triệu chứng thông thường của sự hấp dẫn
- Các sự kiện cửa sổ TCP Zero trong gói thu
- Tỷ lệ chuyển tiếp cao mặc dù mức độ trễ của mạng
- Name
- Hiệu suất thoái hóa dưới tải mà cải thiện khi tải giảm
- Hiệu suất không nhất quán trên các cấu hình phần cứng tương tự
- Name
Hiểu vấn đề
Name
TCP sử dụng một cơ chế điều khiển dòng chảy nơi mà người nhận quảng cáo một cỡ "cửa sổ" chỉ ra bao nhiêu dữ liệu có thể chấp nhận. Khi bộ đệm hệ thống đầy, cửa sổ này co lại thành số không, ép người gửi phải đợi. Điều này xuất hiện như một vấn đề mạng nhưng thực sự là một vấn đề tài nguyên máy.
Nơi nào có vấn đề
- Ổ cắm (SONDUF/SO RCVBUF): Gửi và nhận vùng đệm
- Bộ đệm cửa sổ TCP: Kích cỡ cửa sổ TCP tối đa cho kết nối
- Bộ đệm thiết bị mạng: Bộ đệm đệm vòng NIC cho việc thu thập gói
- Bộ nhớ toàn hệ thống: Bộ nhớ được cấp cao cho mạng
Lệnh chẩn đoán
Chẩn đoán Linux
# Check current TCP buffer settings sysctl net.ipv4.tcp_rmem sysctl net.ipv4.tcp_wmem sysctl net.core.rmem_max sysctl net.core.wmem_max # Check NIC ring buffer sizes ethtool -g eth0 # Monitor socket buffer usage ss -tm # Check for TCP zero window events tcpdump -i any 'tcp[tcpflags] & tcp-push != 0' -vv # Check network statistics for buffer issues netstat -s | grep -i "buffer\|queue\|drop"
Chẩn đoán Windows
# Check TCP parameters
netsh interface tcp show global
# View network adapter buffer settings
Get-NetAdapterAdvancedProperty -Name "Ethernet" | Where-Object {$_.DisplayName -like "*buffer*"}
# Monitor TCP statistics
netstat -s -p tcp
# Check receive window auto-tuning
netsh interface tcp show global | findstr "Receive Window"
Chẩn đoán macOS
# Check current buffer settings sysctl kern.ipc.maxsockbuf sysctl net.inet.tcp.sendspace sysctl net.inet.tcp.recvspace # View network statistics netstat -s -p tcp # Monitor socket buffers netstat -an -p tcp
Name
Thiết lập hệ thống Linux thừa kế (Circa 2009)
| Tham số | Giá trị thừa kế (2009) | Mô tả |
|---|---|---|
| & Mặc định | 124928 (122KB) | Name |
| lưới.cure.rmem max | 131071 (128KB) | Nhận tối đa kích cỡ bộ đệm ổ cắm |
| & Mặc định | 124928 (122KB) | Kích cỡ bộ đệm mặc định |
| lưới.core.wmem max | 131071 (128KB) | Kích cỡ Bộ đệm Gửi tối đa |
| yet.ip4.tcp rmem | 4096 87380 14760 | TCP nhận bộ đệm: min, default, tối đa (theo byte) |
| lưới.ip4.tcp wmem | 4096 16384 131072 | TCP gửi bộ đệm: min, default, Max (theo byte) |
| lưới.ip4.tcp mm | 196608 262144 393216 | Trang trí nhớ TCP: thấp, áp lực, cao |
| lưới.core.netdev max backlog | 1000 | Gói tin tối đa trong hàng đợi nhập |
| lưới.core.optem max | 10240 (10KB) | Cỡ đệm tuần hoàn tối đa mỗi ổ |
Thiết lập Linux hiện thời (2025-26)
| Parameter | Giá trị gợi ý hiện thời | Description |
|---|---|---|
| net.core.rmem_default | 16777216 (16MB) | Default receive socket buffer size |
| net.core.rmem_max | 134217728 (128MB) | Maximum receive socket buffer size |
| net.core.wmem_default | 16777216 (16MB) | Default send socket buffer size |
| net.core.wmem_max | 134217728 (128MB) | Maximum send socket buffer size |
| net.ipv4.tcp_rmem | 4096 87380 134217728 | TCP nhận bộ đệm: min, default, tối đa 128MB) |
| net.ipv4.tcp_wmem | 4096 65536 134217728 | TCP gửi bộ đệm: min, default, tối đa 128MB) |
| net.ipv4.tcp_mem | 8388608 12582912 16777216 | Trang trí nhớ TCP: thấp, áp lực, cao (hệ thống 64GB) |
| net.core.netdev_max_backlog | 250 ngàn | Gói tin tối đa trong hàng đầu vào (10GbE+) |
| net.core.optmem_max | 65536 (64KB) | Maximum ancillary buffer size per socket |
| Điều khiển | bbr | Dùng điều khiển tắc BBR ( thuật toán của Gorgle) |
| lưới.ip4.tcp window scaling | 1 | Bật phóng to cửa sổ TCP (RFC 1323) |
| ltv4. tcp time sstamps | 1 | Bật nhãn thời gian TCP để ước tính giá trị RTT tốt hơn |
| yet.ip4.tcp sack | 1 | Bật khả năng chọn |
| lưới.iv4.tcp no metric s | 1 | & Tắt bộ nhớ |
Ứng dụng cấu hình Linux
Thêm các thiết lập này vào /etc/sysctl.conf hoặc tạo tập tin mới /etc/sysctl.d/99-network-tuning.conf:
# Network Buffer Tuning for High-Performance Applications # Optimized for 10GbE+ networks with RTT up to 300ms # Core socket buffer settings net.core.rmem_default = 16777216 net.core.rmem_max = 134217728 net.core.wmem_default = 16777216 net.core.wmem_max = 134217728 # TCP buffer settings net.ipv4.tcp_rmem = 4096 87380 134217728 net.ipv4.tcp_wmem = 4096 65536 134217728 net.ipv4.tcp_mem = 8388608 12582912 16777216 # Device buffer settings net.core.netdev_max_backlog = 250000 net.core.netdev_budget = 50000 net.core.netdev_budget_usecs = 5000 net.core.optmem_max = 65536 # TCP optimizations net.ipv4.tcp_congestion_control = bbr net.ipv4.tcp_window_scaling = 1 net.ipv4.tcp_timestamps = 1 net.ipv4.tcp_sack = 1 net.ipv4.tcp_no_metrics_save = 1 net.ipv4.tcp_moderate_rcvbuf = 1 # Apply with: sysctl -p /etc/sysctl.d/99-network-tuning.conf
Name
# Check current ring buffer sizes ethtool -g eth0 # Set maximum ring buffer sizes (adjust based on NIC capabilities) ethtool -G eth0 rx 4096 tx 4096 # Make persistent by adding to /etc/network/interfaces or systemd service
- Bộ nhớ nối: Mỗi kết nối có thể sử dụng để rem max + wem max (56MB với 128MB đệm)
- Tổng tác động hệ thống: 1,000 kết nối × 257MB = 246GB tiềm năng sử dụng
- Đánh giá an toàn: Các kết nối đồng thời tối đa × 257MB không vượt quá 50% của hệ thống RAM
- Ví dụ: Máy chủ 64GB nên giới hạn kết nối tối đa tới ~125 đồng thời thông qua kết nối với hệ thống đệm 128MB
- Khuyên máy phục vụ dùng <16GB RAM: Giảm bộ đệm thành tối đa 16- 32MB và điều chỉnh tcp mm theo tỷ lệ
Name
Thiết lập di sản Windows (Circa 2009 - Windows Vista/7/Server 2008)
| Parameter | Legacy Value (2009) | Địa điểm |
|---|---|---|
| Cửa sổ Tcp | 65535 (64KB) | Bộ đăng ký: HKLM\System\ Đang phân loại\Services\Tcpip\Parameters |
| Tcp1323Opts | 0 (không thể) | Comment |
| Cửa sổ trả lại mặc định | 8192 (8KB) | Cửa sổ nhận mặc định |
| Cửa sổ gửi mặc định | 8192 (8KB) | Name |
| Page size | 65535 (64KB) | Kích cỡ cửa sổ TCP tối đa |
| TcpNum Connections | 16777214 | Kết nối màn hình nền tối đa |
Thiết lập cửa sổ hiện thời (cửa sổ 10/ 11/ Server 2019-25)
Cửa sổ hiện đại sử dụng Nhận tự động in cửa sổ tính năng điều chỉnh năng động nhận bộ đệm dựa trên điều kiện mạng.
| Tính năng | Thiết lập khuyến cáo hiện thời | Description |
|---|---|---|
| Cấp tự động in | chuẩn (hay thử nghiệm cao cho 10GbE+) | Điều chỉnh cửa sổ theo động |
| Phóng to- thu nhỏ | Chọn | Phân phối mạng xử lý qua CPU |
| Gỡ bỏ kho | tự động (hoặc vô hiệu trên hệ điều hành hiện đại) | TCP tải về phần cứng NIC |
| NetDMA | bị tắt | Truy cập trực tiếp đến bộ nhớ (bị phản đối) |
| Tham số toàn cục TCP | Xem lệnh bên dưới | Thiết lập TCP toàn hệ thống |
| Nhà cung cấp chi tiết | CBRIC (hoặc NewReno fallback) | Thuật toán điều khiển tắc TCP |
Lệnh cấu hình Windows
# Check current auto-tuning level netsh interface tcp show global # Enable auto-tuning (normal mode - default for most scenarios) netsh interface tcp set global autotuninglevel=normal # For high-bandwidth, high-latency networks (10GbE+, data center environments) netsh interface tcp set global autotuninglevel=experimental # For conservative tuning (if experimental causes issues) netsh interface tcp set global autotuninglevel=restricted # For very conservative tuning (not recommended for high-performance networks) netsh interface tcp set global autotuninglevel=highlyrestricted # Enable CUBIC congestion provider (Windows Server 2022/Windows 11+ only) netsh interface tcp set supplemental template=Internet congestionprovider=cubic # Note: Windows 10 and Server 2019 use Compound TCP or NewReno by default # CUBIC is not available on these older versions # Enable Receive-Side Scaling (RSS) netsh interface tcp set global rss=enabled # Set chimney offload (automatic is recommended) netsh interface tcp set global chimney=automatic # Disable NetDMA (recommended for modern systems) netsh interface tcp set global netdma=disabled # Enable Direct Cache Access (if supported) netsh interface tcp set global dca=enabled # Enable ECN (Explicit Congestion Notification) netsh interface tcp set global ecncapability=enabled # Set initial congestion window to 10 (RFC 6928) netsh interface tcp set global initialRto=3000
Thiết lập bộ đệm kiểu NIC cao cấp (máy quản lý thiết bị hay hệ thống điện từ)
# View current adapter settings Get-NetAdapterAdvancedProperty -Name "Ethernet" # Increase receive buffers (adjust based on NIC) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Receive Buffers" -DisplayValue 2048 # Increase transmit buffers Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Transmit Buffers" -DisplayValue 2048 # Enable Jumbo Frames (if network supports it) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Jumbo Packet" -DisplayValue 9014 # Enable Large Send Offload (LSO) Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv4)" -DisplayValue Enabled Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv6)" -DisplayValue Enabled
Đăng ký Tweaks
# These settings are typically NOT needed on Windows 10/11 due to auto-tuning # Only modify if auto-tuning is disabled or problematic # Registry path: HKLM\System\CurrentControlSet\Services\Tcpip\Parameters # Maximum TCP window size (if auto-tuning disabled) # TcpWindowSize = 16777216 (16MB) - REG_DWORD # Enable window scaling (enabled by default on modern Windows) # Tcp1323Opts = 3 - REG_DWORD # Number of TCP Timed Wait Delay # TcpTimedWaitDelay = 30 - REG_DWORD (default 240)
Name
Thiết lập di sản macOS (Circa 2009 - Mac Os X 10.5/10. 6)
| Parameter | Legacy Value (2009) | Description |
|---|---|---|
| kern.ipc.maxockbuf | 262144 (256KB) | Kích cỡ bộ đệm ổ cắm tối đa |
| net.t.tcp.sendspace | 32KB | Name |
| Mạng.inet.tcp.recvspace | 32768 (32KB) | Name |
| lưới.inet.tcp.autorcbufmax | 131072 (128KB) | Bộ đệm nhận tự động tối đa |
| net.tcp.autosndbufmax | 131072 (128KB) | Gửi bộ đệm tự động tối đa |
| lưới.inet.tcp.rfc1323 | 0 (disabled) | Phóng to cửa sổ TCP |
Thiết lập macOS hiện tại (macOS 1215 Monterey thông qua Sequoia)
| Parameter | Current Recommended Value | Description |
|---|---|---|
| kern.ipc.maxsockbuf | 8388608 (8MB) | Maximum socket buffer size |
| net.inet.tcp.sendspace | 131072 (128KB) | Default TCP send buffer |
| net.inet.tcp.recvspace | 131072 (128KB) | Default TCP receive buffer |
| net.inet.tcp.autorcvbufmax | 16777216 (16MB) | Maximum auto-tuned receive buffer |
| net.inet.tcp.autosndbufmax | 16777216 (16MB) | Maximum auto-tuned send buffer |
| net.inet.tcp.rfc1323 | 1 (có thể) | Bật khả năng phóng to cửa sổ TCP |
| lưới.inet.tcp.sack | 1 (enabled) | Enable Selective Acknowledgment |
| lưới.inet.tcp.msdft | 1440 | Name |
| net.tcp.delayed ack | 3 | Làm chậm lại cách cư xử của ACK |
Ứng dụng cấu hình McOS
# Check current settings sysctl kern.ipc.maxsockbuf sysctl net.inet.tcp.sendspace sysctl net.inet.tcp.recvspace sysctl net.inet.tcp.autorcvbufmax sysctl net.inet.tcp.autosndbufmax # Apply settings temporarily (until reboot) sudo sysctl -w kern.ipc.maxsockbuf=8388608 sudo sysctl -w net.inet.tcp.sendspace=131072 sudo sysctl -w net.inet.tcp.recvspace=131072 sudo sysctl -w net.inet.tcp.autorcvbufmax=16777216 sudo sysctl -w net.inet.tcp.autosndbufmax=16777216 sudo sysctl -w net.inet.tcp.rfc1323=1 sudo sysctl -w net.inet.tcp.sack=1 # Make settings persistent (create /etc/sysctl.conf) sudo tee /etc/sysctl.conf <Đang tạo mục tiêu chạy cho thiết lập bền bỉ
# Create /Library/LaunchDaemons/com.local.sysctl.plist sudo tee /Library/LaunchDaemons/com.local.sysctl.plist <EOF sudo chmod 644 /Library/LaunchDaemons/com.local.sysctl.plist sudo launchctl load /Library/LaunchDaemons/com.local.sysctl.plist Label com.local.sysctl ProgramArguments /usr/sbin/sysctl -w kern.ipc.maxsockbuf=8388608 RunAtLoad Cảnh báo: MacOS Vepura (13) và sau đó có những giới hạn về sự bảo vệ của hệ thống (SIP). Một số tham số nhân có lẽ không thể sửa đổi ngay cả với sudo. Thiết lập trong môi trường cụ thể.
Comment
Công cụ để thử ra trình bày bộ đệm
iperf3 - Thử ra kết quả mạng
# Server side iperf3 -s # Client side - test TCP throughput iperf3 -c server_ip -t 60 -i 5 -w 16M # Test with multiple parallel streams iperf3 -c server_ip -P 10 -t 60 # Test UDP performance iperf3 -c server_ip -u -b 1000M -t 60
Tcpdump - Kích cỡ cửa sổ TCP chụp
# Capture and display TCP window sizes tcpdump -i any -n 'tcp' -vv | grep -i window # Save capture for Wireshark analysis tcpdump -i any -w /tmp/capture.pcap 'tcp port 443'
Phân tích Wireshark
Tìm kiếm những chỉ số của vấn đề bộ đệm:
- Thông điệp cửa sổ TCP Zero
- Trình cập nhật cửa sổ TCP
- Cửa sổ TCP Thông báo đầy đủ
- Tỷ lệ tái phát cao với RTT thấp
Theo dõi hệ thống
# Linux - Monitor network buffer statistics watch -n 1 'cat /proc/net/sockstat' watch -n 1 'ss -tm | grep -i mem' # Check for drops netstat -s | grep -i drop # Windows - Monitor TCP statistics netstat -e 1 # macOS - Monitor network statistics netstat -s -p tcp
Trình chọn & màu
Để xác định kích cỡ bộ đệm tối ưu cho mạng của bạn, hãy tính toán sản phẩm Bandwidth-Delayt:
BDP = Bandwidth (bits/sec) × RTT (seconds) Example for 10 Gigabit Ethernet with 50ms RTT: BDP = 10,000,000,000 × 0.050 = 500,000,000 bits = 62.5 MB Buffer Size = BDP × 2 (for bidirectional traffic and headroom) Buffer Size = 62.5 MB × 2 = 125 MB This is why modern settings recommend 128MB maximum buffers.
Comment
| Kiểu nạp công việc | Cỡ bộ đệm gợi ý | Tham số khoá |
|---|---|---|
| Máy phục vụ Mạng (Low latency) | 4- 16 MB | Bộ đệm thấp, kết nối, phản ứng nhanh |
| Máy phục vụ co sở dữ liệu | 16- 32 MB | Các bộ đệm điều hòa, nhất quán đi qua |
| Truyền tập tin/ sao lưu | 64-128 MB | Bộ đệm tối đa, ưu tiên cấp cao |
| Comment | 32- 64 MB | Bộ đệm lớn, tỷ lệ sinh nhất định |
| Trung tâm dữ liệu HPC / HPC | 128-56 MB | Bộ đệm tối đa, điều khiển tắc nghẽn đặc biệt |
| Comment | 2-8 MB | Bộ đệm bảo tồn, quản lý độ trễ biến |
Những lỗi lầm và cạm bẫy thông thường
Những lỗi lầm nên tránh
- Bộ lọc quá nhiều: Bộ đệm lớn quá mức có thể gây ra bộ đệm, tăng độ trễ
- Bỏ qua các hạn chế bộ nhớ: Bộ đệm lớn nhân với số đếm kết nối; một máy chủ với 10.000 kết nối và 128MB bộ đệm cần 1.25B của RAM
- Đang tắt chạy tự động mà không có lý do: Thiết lập hệ điều hành hiện đại thường tốt hơn thiết lập tĩnh
- Không thử ra sau khi thay đổi: Luôn luôn hiệu quả cải tiến hiệu suất với tải công việc thực
- Bộ đệm NIC: Sự kiệt sức của bộ đệm vòng có thể xảy ra độc lập với bộ đệm ổ cắm
- Thiết lập không nhất quán: Khách và máy phục vụ cần có cấu hình bộ đệm tương thích
- Bỏ qua điều khiển tắc nghẽn: BBR và CURIC tốt hơn nhiều so với thuật toán cũ
Dịch vụ liên quan đến vấn đề
- Đường cơ sở: Đo hiệu suất hiện tại với iperf3 hoặc công cụ tương tự
- Gói tin chụp: Dùng tcpdump/Wireshark để nhận diện ứng xử cửa sổ TCP
- Kiểm tra thống kê hệ thống: Tìm thả, đệm kiệt sức, tái phát
- Tính BDP: Quyết định theo lý thuyết kích cỡ bộ đệm tối ưu
- Áp dụng thay đổi tăng dần: Đừng thay đổi tất cả cùng một lúc
- Thử và xác thực: Đo hiệu suất thực tế cải thiện
- Theo thời gian: Bảo đảm cài đặt vẫn là tối ưu dưới các vật chứa khác nhau
Tham khảo và đọc nhiều hơn
- RFC 1323 - Phần mở rộng TCP cho hiệu suất cao (Cấp cao cửa sổ)
- Phiên chạy đầu tiên
- RFC 6928 - tăng cửa sổ ban đầu của TCP
- RFC 8312 - Bộ điều khiển kết nối CBRIC
- Kiểm soát sự kết hợp BBR (Google) - https lập trình viên.google/pubs/pb45646/
- Linux Kernel tài liệu - Hình mạng/p-systl.txt
- Hướng dẫn điều khiển điều khiển màn hình cho WindowsName
- Hướng dẫn điều chỉnh mạng ESnet - https lập trình viên: https
Kết luận
Sự kiệt sức là một nguyên nhân phổ biến của các vấn đề hiệu suất dường như liên quan đến mạng lưới. Bằng cách hiểu sự tiến hóa của sự phát triển bộ đệm từ những giới hạn 128KB của năm 2009 đến khả năng 128MB ngày nay, các kĩ sư mạng lưới có thể nhanh chóng xác định và giải quyết những vấn đề này.
Lấy chìa khóa:
- Hệ thống hiện đại cần bộ đệm lớn hơn nhiều so với di sản (2009) cấu hình
- Luôn tính BDP cho điều kiện mạng cụ thể của bạn
- Dùng các tính năng chạy tự động khi có (cửa sổ hiện đại, Linux)
- Theo dõi và kiểm tra để xác thực các thay đổi
- Xem xét yêu cầu tải công việc khi điều chỉnh
Hãy nhớ rằng: "Một vấn đề làm việc mạng" được tiết lộ bằng phân tích gói để hiển thị cửa sổ TCP zero thực sự là một vấn đề tài nguyên hệ thống máy tính. Với sự điều chỉnh thích hợp của bộ đệm, bạn có thể loại bỏ những chẩn đoán sai và đạt hiệu quả tối ưu.
Cập nhật lần cuối: ngày 2 tháng 2 năm 2026
Tác giả: Baud9600 kỹ thuật nhóm