Я просто обновил свою LAN до гигабита. Это - то, что netperf должен сказать о вещах.
Прежде:
marcus@lt:~$ netperf -H 192.168.1.1
TCP STREAM TEST from 0.0.0.0 (0.0.0.0) port 0 AF_INET to 192.168.1.1 (192.168.1.1)
port 0 AF_INET : demo
Recv Send Send
Socket Socket Message Elapsed
Size Size Size Time Throughput
bytes bytes bytes secs. 10^6bits/sec
87380 16384 16384 10.02 94.13
После:
marcus@lt:~$ netperf -H 192.168.1.1
TCP STREAM TEST from 0.0.0.0 (0.0.0.0) port 0 AF_INET to 192.168.1.1 (192.168.1.1) port 0 AF_INET : demo
Recv Send Send
Socket Socket Message Elapsed
Size Size Size Time Throughput
bytes bytes bytes secs. 10^6bits/sec
87380 16384 16384 10.01 339.15
Только 340 Мбит/с? Что произошло с этим?
Вводная информация: я соединяюсь через гигабитный переключатель с sheevaplug. У меня есть проводное соединение Cat5e в стенах, и выполнение - возможно, 30 футов. Если Вы не знакомы с netperf, он имеет тенденцию дать очень стабильные результаты и никогда не лежать.
Проверьте этот поток. Один из участников (Frennzy) обрисовывает в общих чертах это очень приятно. Я заключу в кавычки:
"Реальная" скорость Gigabit Ethernet...
1 Гбит/с.
То есть это передаст биты по курсу 1 миллиарда в секунду.
Сколько пропускной способности, которую Вы получаете, связано с различными и различными факторами:
Соединение NIC с системой (PCI по сравнению с PCIe по сравнению с Северным мостом, и т.д.).
Пропускная способность жесткого диска.
Конфликтная ситуация при обращении к шине.
Протокол уровня 3/4 и связанный наверху.
Эффективность приложений (FTP по сравнению с SMB/CIFS, и т.д.)
Формат кадра.
Распределение размера пакета (как касается общей эффективности пропускной способности),
Сжатие (аппаратное и программное обеспечение).
Буферизуйте конкуренцию, работу с окнами, и т.д.
Способность сетевой инфраструктуры и архитектура (количество портов, способности основной платы, конкуренции, и т.д.)
Короче говоря, Вы не будете действительно знать, пока Вы не протестируете его. NetCPS является хорошим инструментом для этого, как многие другие.
И это, позже в потоке (мое выделение):
Прекратите думать как это. Остановите его теперь. Все Вы.
Так, как требуется выяснить килограмм - или мега передача Байта в секунду, факт - то, что это является переменным, даже когда скорость сети остается постоянной. Сетевая "скорость" (биты в секунду) является абсолютной. Сетевая пропускная способность (данные фактической полезной нагрузки в секунду) не.
К OP: будете Вы, в целом, видите более быструю передачу данных при переключении от 100 Мбит/с до 1000 Мбит/с? Почти определенно. Это будет где-нибудь близко к теоретическому максимуму? Нет. Это будет стоить того? Это - чтобы Вы решили.
Если Вы хотите говорить о скоростях сети, говорить о скоростях сети. Если Вы хотите говорить о пропускной способности, говорить о пропускной способности. Эти два не связаны способом 1-1.
Термин 'теоретический максимум' брошен вокруг, но он действительно имеет практическое применение с технологиями Ethernet. В системе CSMA/CD как Ethernet можно только отправить приблизительно половину пропускной способности трафика, поскольку провод содержит, часто немного меньше. Причина состоит в том, потому что, после того как Вы пытаетесь стать кроме того 'максимальными', затем приемопередатчики начнут обнаруживать коллизии больше, чем они передают пакеты. Затем экспоненциальная задержка играет роль, и передача пакетов ухудшается еще больше. Кольцо с маркерным доступом обошло это, но оно имело много своих собственных проблем и действительно не используется очень больше, я верю. Ethernet/IP стал фактическим стандартом.
Восходящие технологии, как T3, используют асинхронных пар, которые допускают полную пропускную способность на каждом проводе, но это - также не основанный на Ethernet протокол.
При использовании основных, стандартных устройств Ethernet всегда будет 'теоретический максимум'.
Разговор о CSMA/CD в контексте GbE является совершенно поддельным. Gigabit Ethernet или любой "полнодуплексный" Ethernet, не использует CSMA/CD. И в то время как GbE действительно все еще поддерживал теоретическую возможность для полудуплексной операции, я нисколько не уверен, что было когда-либо любое фактическое производство набор GbE, который сделал полудуплексный.
Что касается того, почему OP только достиг 300 с лишним Мбит/с через ссылку на 1 000 Гбит в сек., я буду предлагать собрать netstat статистику для TCP до и после каждого netperf, выполненного, и включать-c и-C глобальные параметры командной строки для наблюдения то, что загрузка ЦП находится на любом конце. Возможно, что-то отбрасывает пакеты, или возможно ЦП на одной стороне или другом становится влажным. Если системы на любом конце являются многоядерными, определенно проверьте использования на ядро или с внешним инструментом, или путем прохождения через вывод отладки netperf.
Другие netperf вопросы, вероятно, лучше всего оставленные netperf-разговору в списке рассылки netperf.org.