System Buffer Tuning - TCP and Network Performance Optimization

Name

Tóm tắt hành chính

Các kỹ sư mạng thường gặp những tình huống mà việc cửa sổ hoặc hiệu suất ứng dụng TCP bị đổ lỗi cho cơ sở hạ tầng mạng. Sau khi thực hiện chụp nhiều gói, phân tích mạng tcpdumps và mạng, người ta thường phát hiện ra cổ chai thật: hệ thống giao diện Mạng (Network Card) hoặc hệ thống đệm cấp hệ thống máy chủ cho khách hoặc máy chủ.

Bài này cung cấp cả di sản ( irca 2009) và hiện tại (2025-26) cấu hình bộ đệm cho Linux, Windows và macOS, cùng với phương pháp chẩn đoán để xác định sự kiệt sức của bộ đệm trước khi nó trở thành vấn đề quan trọng.

Triệu chứng thông thường của sự hấp dẫn

  • Các sự kiện cửa sổ TCP Zero trong gói thu
  • Tỷ lệ chuyển tiếp cao mặc dù mức độ trễ của mạng
  • Name
  • Hiệu suất thoái hóa dưới tải mà cải thiện khi tải giảm
  • Hiệu suất không nhất quán trên các cấu hình phần cứng tương tự
  • Name

Hiểu vấn đề

Name

TCP sử dụng một cơ chế điều khiển dòng chảy nơi mà người nhận quảng cáo một cỡ "cửa sổ" chỉ ra bao nhiêu dữ liệu có thể chấp nhận. Khi bộ đệm hệ thống đầy, cửa sổ này co lại thành số không, ép người gửi phải đợi. Điều này xuất hiện như một vấn đề mạng nhưng thực sự là một vấn đề tài nguyên máy.

Nơi nào có vấn đề

  • Ổ cắm (SONDUF/SO RCVBUF): Gửi và nhận vùng đệm
  • Bộ đệm cửa sổ TCP: Kích cỡ cửa sổ TCP tối đa cho kết nối
  • Bộ đệm thiết bị mạng: Bộ đệm đệm vòng NIC cho việc thu thập gói
  • Bộ nhớ toàn hệ thống: Bộ nhớ được cấp cao cho mạng

Lệnh chẩn đoán

Chẩn đoán Linux

# Check current TCP buffer settings
sysctl net.ipv4.tcp_rmem
sysctl net.ipv4.tcp_wmem
sysctl net.core.rmem_max
sysctl net.core.wmem_max

# Check NIC ring buffer sizes
ethtool -g eth0

# Monitor socket buffer usage
ss -tm

# Check for TCP zero window events
tcpdump -i any 'tcp[tcpflags] & tcp-push != 0' -vv

# Check network statistics for buffer issues
netstat -s | grep -i "buffer\|queue\|drop"

Chẩn đoán Windows

# Check TCP parameters
netsh interface tcp show global

# View network adapter buffer settings
Get-NetAdapterAdvancedProperty -Name "Ethernet" | Where-Object {$_.DisplayName -like "*buffer*"}

# Monitor TCP statistics
netstat -s -p tcp

# Check receive window auto-tuning
netsh interface tcp show global | findstr "Receive Window"

Chẩn đoán macOS

# Check current buffer settings
sysctl kern.ipc.maxsockbuf
sysctl net.inet.tcp.sendspace
sysctl net.inet.tcp.recvspace

# View network statistics
netstat -s -p tcp

# Monitor socket buffers
netstat -an -p tcp

Name

Thiết lập hệ thống Linux thừa kế (Circa 2009)

Tham số Giá trị thừa kế (2009) Mô tả
& Mặc định 124928 (122KB) Name
lưới.cure.rmem max 131071 (128KB) Nhận tối đa kích cỡ bộ đệm ổ cắm
& Mặc định 124928 (122KB) Kích cỡ bộ đệm mặc định
lưới.core.wmem max 131071 (128KB) Kích cỡ Bộ đệm Gửi tối đa
yet.ip4.tcp rmem 4096 87380 14760 TCP nhận bộ đệm: min, default, tối đa (theo byte)
lưới.ip4.tcp wmem 4096 16384 131072 TCP gửi bộ đệm: min, default, Max (theo byte)
lưới.ip4.tcp mm 196608 262144 393216 Trang trí nhớ TCP: thấp, áp lực, cao
lưới.core.netdev max backlog 1000 Gói tin tối đa trong hàng đợi nhập
lưới.core.optem max 10240 (10KB) Cỡ đệm tuần hoàn tối đa mỗi ổ

Thiết lập Linux hiện thời (2025-26)

Parameter Giá trị gợi ý hiện thời Description
net.core.rmem_default 16777216 (16MB) Default receive socket buffer size
net.core.rmem_max 134217728 (128MB) Maximum receive socket buffer size
net.core.wmem_default 16777216 (16MB) Default send socket buffer size
net.core.wmem_max 134217728 (128MB) Maximum send socket buffer size
net.ipv4.tcp_rmem 4096 87380 134217728 TCP nhận bộ đệm: min, default, tối đa 128MB)
net.ipv4.tcp_wmem 4096 65536 134217728 TCP gửi bộ đệm: min, default, tối đa 128MB)
net.ipv4.tcp_mem 8388608 12582912 16777216 Trang trí nhớ TCP: thấp, áp lực, cao (hệ thống 64GB)
net.core.netdev_max_backlog 250 ngàn Gói tin tối đa trong hàng đầu vào (10GbE+)
net.core.optmem_max 65536 (64KB) Maximum ancillary buffer size per socket
Điều khiển bbr Dùng điều khiển tắc BBR ( thuật toán của Gorgle)
lưới.ip4.tcp window scaling 1 Bật phóng to cửa sổ TCP (RFC 1323)
ltv4. tcp time sstamps 1 Bật nhãn thời gian TCP để ước tính giá trị RTT tốt hơn
yet.ip4.tcp sack 1 Bật khả năng chọn
lưới.iv4.tcp no metric s 1 & Tắt bộ nhớ

Ứng dụng cấu hình Linux

Thêm các thiết lập này vào /etc/sysctl.conf hoặc tạo tập tin mới /etc/sysctl.d/99-network-tuning.conf:

# Network Buffer Tuning for High-Performance Applications
# Optimized for 10GbE+ networks with RTT up to 300ms

# Core socket buffer settings
net.core.rmem_default = 16777216
net.core.rmem_max = 134217728
net.core.wmem_default = 16777216
net.core.wmem_max = 134217728

# TCP buffer settings
net.ipv4.tcp_rmem = 4096 87380 134217728
net.ipv4.tcp_wmem = 4096 65536 134217728
net.ipv4.tcp_mem = 8388608 12582912 16777216

# Device buffer settings
net.core.netdev_max_backlog = 250000
net.core.netdev_budget = 50000
net.core.netdev_budget_usecs = 5000
net.core.optmem_max = 65536

# TCP optimizations
net.ipv4.tcp_congestion_control = bbr
net.ipv4.tcp_window_scaling = 1
net.ipv4.tcp_timestamps = 1
net.ipv4.tcp_sack = 1
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1

# Apply with: sysctl -p /etc/sysctl.d/99-network-tuning.conf

Name

# Check current ring buffer sizes
ethtool -g eth0

# Set maximum ring buffer sizes (adjust based on NIC capabilities)
ethtool -G eth0 rx 4096 tx 4096

# Make persistent by adding to /etc/network/interfaces or systemd service
Suy ngẫm nghiêm trọng về bộ nhớ cảnh báo: Các giá trị tcp mm nằm trong các trang trí nhớ (thường là 4KB). Kích cỡ bộ đệm lớn có thể gây áp lực bộ nhớ nghiêm trọng:
  • Bộ nhớ nối: Mỗi kết nối có thể sử dụng để rem max + wem max (56MB với 128MB đệm)
  • Tổng tác động hệ thống: 1,000 kết nối × 257MB = 246GB tiềm năng sử dụng
  • Đánh giá an toàn: Các kết nối đồng thời tối đa × 257MB không vượt quá 50% của hệ thống RAM
  • Ví dụ: Máy chủ 64GB nên giới hạn kết nối tối đa tới ~125 đồng thời thông qua kết nối với hệ thống đệm 128MB
  • Khuyên máy phục vụ dùng <16GB RAM: Giảm bộ đệm thành tối đa 16- 32MB và điều chỉnh tcp mm theo tỷ lệ

Name

Thiết lập di sản Windows (Circa 2009 - Windows Vista/7/Server 2008)

Parameter Legacy Value (2009) Địa điểm
Cửa sổ Tcp 65535 (64KB) Bộ đăng ký: HKLM\System\ Đang phân loại\Services\Tcpip\Parameters
Tcp1323Opts 0 (không thể) Comment
Cửa sổ trả lại mặc định 8192 (8KB) Cửa sổ nhận mặc định
Cửa sổ gửi mặc định 8192 (8KB) Name
Page size 65535 (64KB) Kích cỡ cửa sổ TCP tối đa
TcpNum Connections 16777214 Kết nối màn hình nền tối đa

Thiết lập cửa sổ hiện thời (cửa sổ 10/ 11/ Server 2019-25)

Cửa sổ hiện đại sử dụng Nhận tự động in cửa sổ tính năng điều chỉnh năng động nhận bộ đệm dựa trên điều kiện mạng.

Tính năng Thiết lập khuyến cáo hiện thời Description
Cấp tự động in chuẩn (hay thử nghiệm cao cho 10GbE+) Điều chỉnh cửa sổ theo động
Phóng to- thu nhỏ Chọn Phân phối mạng xử lý qua CPU
Gỡ bỏ kho tự động (hoặc vô hiệu trên hệ điều hành hiện đại) TCP tải về phần cứng NIC
NetDMA bị tắt Truy cập trực tiếp đến bộ nhớ (bị phản đối)
Tham số toàn cục TCP Xem lệnh bên dưới Thiết lập TCP toàn hệ thống
Nhà cung cấp chi tiết CBRIC (hoặc NewReno fallback) Thuật toán điều khiển tắc TCP

Lệnh cấu hình Windows

# Check current auto-tuning level
netsh interface tcp show global

# Enable auto-tuning (normal mode - default for most scenarios)
netsh interface tcp set global autotuninglevel=normal

# For high-bandwidth, high-latency networks (10GbE+, data center environments)
netsh interface tcp set global autotuninglevel=experimental

# For conservative tuning (if experimental causes issues)
netsh interface tcp set global autotuninglevel=restricted

# For very conservative tuning (not recommended for high-performance networks)
netsh interface tcp set global autotuninglevel=highlyrestricted

# Enable CUBIC congestion provider (Windows Server 2022/Windows 11+ only)
netsh interface tcp set supplemental template=Internet congestionprovider=cubic

# Note: Windows 10 and Server 2019 use Compound TCP or NewReno by default
# CUBIC is not available on these older versions

# Enable Receive-Side Scaling (RSS)
netsh interface tcp set global rss=enabled

# Set chimney offload (automatic is recommended)
netsh interface tcp set global chimney=automatic

# Disable NetDMA (recommended for modern systems)
netsh interface tcp set global netdma=disabled

# Enable Direct Cache Access (if supported)
netsh interface tcp set global dca=enabled

# Enable ECN (Explicit Congestion Notification)
netsh interface tcp set global ecncapability=enabled

# Set initial congestion window to 10 (RFC 6928)
netsh interface tcp set global initialRto=3000

Thiết lập bộ đệm kiểu NIC cao cấp (máy quản lý thiết bị hay hệ thống điện từ)

# View current adapter settings
Get-NetAdapterAdvancedProperty -Name "Ethernet"

# Increase receive buffers (adjust based on NIC)
Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Receive Buffers" -DisplayValue 2048

# Increase transmit buffers
Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Transmit Buffers" -DisplayValue 2048

# Enable Jumbo Frames (if network supports it)
Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Jumbo Packet" -DisplayValue 9014

# Enable Large Send Offload (LSO)
Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv4)" -DisplayValue Enabled
Set-NetAdapterAdvancedProperty -Name "Ethernet" -DisplayName "Large Send Offload V2 (IPv6)" -DisplayValue Enabled

Đăng ký Tweaks

# These settings are typically NOT needed on Windows 10/11 due to auto-tuning
# Only modify if auto-tuning is disabled or problematic

# Registry path: HKLM\System\CurrentControlSet\Services\Tcpip\Parameters

# Maximum TCP window size (if auto-tuning disabled)
# TcpWindowSize = 16777216 (16MB) - REG_DWORD

# Enable window scaling (enabled by default on modern Windows)
# Tcp1323Opts = 3 - REG_DWORD

# Number of TCP Timed Wait Delay
# TcpTimedWaitDelay = 30 - REG_DWORD (default 240)
Cảnh báo: Trên các cửa sổ hiện đại (10/11/Server 2019+), tránh sửa đổi sổ tay trừ khi tự động in ra các vấn đề. Các thuật toán tự động in thường cao hơn các thiết lập tĩnh.

Name

Thiết lập di sản macOS (Circa 2009 - Mac Os X 10.5/10. 6)

Parameter Legacy Value (2009) Description
kern.ipc.maxockbuf 262144 (256KB) Kích cỡ bộ đệm ổ cắm tối đa
net.t.tcp.sendspace 32KB Name
Mạng.inet.tcp.recvspace 32768 (32KB) Name
lưới.inet.tcp.autorcbufmax 131072 (128KB) Bộ đệm nhận tự động tối đa
net.tcp.autosndbufmax 131072 (128KB) Gửi bộ đệm tự động tối đa
lưới.inet.tcp.rfc1323 0 (disabled) Phóng to cửa sổ TCP

Thiết lập macOS hiện tại (macOS 1215 Monterey thông qua Sequoia)

Parameter Current Recommended Value Description
kern.ipc.maxsockbuf 8388608 (8MB) Maximum socket buffer size
net.inet.tcp.sendspace 131072 (128KB) Default TCP send buffer
net.inet.tcp.recvspace 131072 (128KB) Default TCP receive buffer
net.inet.tcp.autorcvbufmax 16777216 (16MB) Maximum auto-tuned receive buffer
net.inet.tcp.autosndbufmax 16777216 (16MB) Maximum auto-tuned send buffer
net.inet.tcp.rfc1323 1 (có thể) Bật khả năng phóng to cửa sổ TCP
lưới.inet.tcp.sack 1 (enabled) Enable Selective Acknowledgment
lưới.inet.tcp.msdft 1440 Name
net.tcp.delayed ack 3 Làm chậm lại cách cư xử của ACK

Ứng dụng cấu hình McOS

# Check current settings
sysctl kern.ipc.maxsockbuf
sysctl net.inet.tcp.sendspace
sysctl net.inet.tcp.recvspace
sysctl net.inet.tcp.autorcvbufmax
sysctl net.inet.tcp.autosndbufmax

# Apply settings temporarily (until reboot)
sudo sysctl -w kern.ipc.maxsockbuf=8388608
sudo sysctl -w net.inet.tcp.sendspace=131072
sudo sysctl -w net.inet.tcp.recvspace=131072
sudo sysctl -w net.inet.tcp.autorcvbufmax=16777216
sudo sysctl -w net.inet.tcp.autosndbufmax=16777216
sudo sysctl -w net.inet.tcp.rfc1323=1
sudo sysctl -w net.inet.tcp.sack=1

# Make settings persistent (create /etc/sysctl.conf)
sudo tee /etc/sysctl.conf <

Đang tạo mục tiêu chạy cho thiết lập bền bỉ

# Create /Library/LaunchDaemons/com.local.sysctl.plist
sudo tee /Library/LaunchDaemons/com.local.sysctl.plist <Labelcom.local.sysctlProgramArguments/usr/sbin/sysctl-wkern.ipc.maxsockbuf=8388608RunAtLoad
EOF

sudo chmod 644 /Library/LaunchDaemons/com.local.sysctl.plist
sudo launchctl load /Library/LaunchDaemons/com.local.sysctl.plist
Cảnh báo: MacOS Vepura (13) và sau đó có những giới hạn về sự bảo vệ của hệ thống (SIP). Một số tham số nhân có lẽ không thể sửa đổi ngay cả với sudo. Thiết lập trong môi trường cụ thể.

Comment

Công cụ để thử ra trình bày bộ đệm

iperf3 - Thử ra kết quả mạng

# Server side
iperf3 -s

# Client side - test TCP throughput
iperf3 -c server_ip -t 60 -i 5 -w 16M

# Test with multiple parallel streams
iperf3 -c server_ip -P 10 -t 60

# Test UDP performance
iperf3 -c server_ip -u -b 1000M -t 60

Tcpdump - Kích cỡ cửa sổ TCP chụp

# Capture and display TCP window sizes
tcpdump -i any -n 'tcp' -vv | grep -i window

# Save capture for Wireshark analysis
tcpdump -i any -w /tmp/capture.pcap 'tcp port 443'

Phân tích Wireshark

Tìm kiếm những chỉ số của vấn đề bộ đệm:

  • Thông điệp cửa sổ TCP Zero
  • Trình cập nhật cửa sổ TCP
  • Cửa sổ TCP Thông báo đầy đủ
  • Tỷ lệ tái phát cao với RTT thấp

Theo dõi hệ thống

# Linux - Monitor network buffer statistics
watch -n 1 'cat /proc/net/sockstat'
watch -n 1 'ss -tm | grep -i mem'

# Check for drops
netstat -s | grep -i drop

# Windows - Monitor TCP statistics
netstat -e 1

# macOS - Monitor network statistics
netstat -s -p tcp

Trình chọn & màu

Để xác định kích cỡ bộ đệm tối ưu cho mạng của bạn, hãy tính toán sản phẩm Bandwidth-Delayt:

BDP = Bandwidth (bits/sec) × RTT (seconds)

Example for 10 Gigabit Ethernet with 50ms RTT:
BDP = 10,000,000,000 × 0.050 = 500,000,000 bits = 62.5 MB

Buffer Size = BDP × 2 (for bidirectional traffic and headroom)
Buffer Size = 62.5 MB × 2 = 125 MB

This is why modern settings recommend 128MB maximum buffers.

Comment

Kiểu nạp công việc Cỡ bộ đệm gợi ý Tham số khoá
Máy phục vụ Mạng (Low latency) 4- 16 MB Bộ đệm thấp, kết nối, phản ứng nhanh
Máy phục vụ co sở dữ liệu 16- 32 MB Các bộ đệm điều hòa, nhất quán đi qua
Truyền tập tin/ sao lưu 64-128 MB Bộ đệm tối đa, ưu tiên cấp cao
Comment 32- 64 MB Bộ đệm lớn, tỷ lệ sinh nhất định
Trung tâm dữ liệu HPC / HPC 128-56 MB Bộ đệm tối đa, điều khiển tắc nghẽn đặc biệt
Comment 2-8 MB Bộ đệm bảo tồn, quản lý độ trễ biến

Những lỗi lầm và cạm bẫy thông thường

Những lỗi lầm nên tránh

  • Bộ lọc quá nhiều: Bộ đệm lớn quá mức có thể gây ra bộ đệm, tăng độ trễ
  • Bỏ qua các hạn chế bộ nhớ: Bộ đệm lớn nhân với số đếm kết nối; một máy chủ với 10.000 kết nối và 128MB bộ đệm cần 1.25B của RAM
  • Đang tắt chạy tự động mà không có lý do: Thiết lập hệ điều hành hiện đại thường tốt hơn thiết lập tĩnh
  • Không thử ra sau khi thay đổi: Luôn luôn hiệu quả cải tiến hiệu suất với tải công việc thực
  • Bộ đệm NIC: Sự kiệt sức của bộ đệm vòng có thể xảy ra độc lập với bộ đệm ổ cắm
  • Thiết lập không nhất quán: Khách và máy phục vụ cần có cấu hình bộ đệm tương thích
  • Bỏ qua điều khiển tắc nghẽn: BBR và CURIC tốt hơn nhiều so với thuật toán cũ

Dịch vụ liên quan đến vấn đề

  1. Đường cơ sở: Đo hiệu suất hiện tại với iperf3 hoặc công cụ tương tự
  2. Gói tin chụp: Dùng tcpdump/Wireshark để nhận diện ứng xử cửa sổ TCP
  3. Kiểm tra thống kê hệ thống: Tìm thả, đệm kiệt sức, tái phát
  4. Tính BDP: Quyết định theo lý thuyết kích cỡ bộ đệm tối ưu
  5. Áp dụng thay đổi tăng dần: Đừng thay đổi tất cả cùng một lúc
  6. Thử và xác thực: Đo hiệu suất thực tế cải thiện
  7. Theo thời gian: Bảo đảm cài đặt vẫn là tối ưu dưới các vật chứa khác nhau

Tham khảo và đọc nhiều hơn

  • RFC 1323 - Phần mở rộng TCP cho hiệu suất cao (Cấp cao cửa sổ)
  • Phiên chạy đầu tiên
  • RFC 6928 - tăng cửa sổ ban đầu của TCP
  • RFC 8312 - Bộ điều khiển kết nối CBRIC
  • Kiểm soát sự kết hợp BBR (Google) - https lập trình viên.google/pubs/pb45646/
  • Linux Kernel tài liệu - Hình mạng/p-systl.txt
  • Hướng dẫn điều khiển điều khiển màn hình cho WindowsName
  • Hướng dẫn điều chỉnh mạng ESnet - https lập trình viên: https

Kết luận

Sự kiệt sức là một nguyên nhân phổ biến của các vấn đề hiệu suất dường như liên quan đến mạng lưới. Bằng cách hiểu sự tiến hóa của sự phát triển bộ đệm từ những giới hạn 128KB của năm 2009 đến khả năng 128MB ngày nay, các kĩ sư mạng lưới có thể nhanh chóng xác định và giải quyết những vấn đề này.

Lấy chìa khóa:

  • Hệ thống hiện đại cần bộ đệm lớn hơn nhiều so với di sản (2009) cấu hình
  • Luôn tính BDP cho điều kiện mạng cụ thể của bạn
  • Dùng các tính năng chạy tự động khi có (cửa sổ hiện đại, Linux)
  • Theo dõi và kiểm tra để xác thực các thay đổi
  • Xem xét yêu cầu tải công việc khi điều chỉnh

Hãy nhớ rằng: "Một vấn đề làm việc mạng" được tiết lộ bằng phân tích gói để hiển thị cửa sổ TCP zero thực sự là một vấn đề tài nguyên hệ thống máy tính. Với sự điều chỉnh thích hợp của bộ đệm, bạn có thể loại bỏ những chẩn đoán sai và đạt hiệu quả tối ưu.


Cập nhật lần cuối: ngày 2 tháng 2 năm 2026

Tác giả: Baud9600 kỹ thuật nhóm