Я нахожусь на гигабитной LAN с сервером на 3 ГГц С 2 ядрами, выделенным подаванию нашего Репозитория.
Что я проверяю проект приблизительно с 30 000 главным образом маленьких файлов, это только потоки на уровне приблизительно 1 МБ/с. Существует приблизительно 140 МБ, таким образом, это отчасти берет навсегда.
Конечно, узкое место не является жестким диском... это находится на SSD, в конце концов. Действительно ли это - проблема обработки?
Windows Server 2008
Подверсия имеет запись действительно дефектной дорожки с производительностью, особенно в Windows. Проблема с предположениями, что все операции файловой системы быстры. И таким образом, они идут вперед, касаясь нескольких тысяч файлов до обновления, касаясь их снова после обновления. И обычно каждый загруженный файл будет приводить, по крайней мере, к записи и переименовыванию.
Проблема состоит в том, что NTFS не то, что быстро в касании нескольких тысяч файлов (даже на SSD; я вижу, что здесь ;-)) сразу так это вид ломается. Вероятно, нет очень, можно сделать, но для сравнения Вы могли бы посмотреть, как быстро это находится на Linux или другом подобном Unix.
существует 2 проблемы:
a) ntfs: если Вы включили поддержку 8,3 имен файлов, то окна должны придумать уникальные 8,3 имен. это "присоединяет" эти имена как дополнительные имена и если имена файлов в каталоге очень похожи, чем алгоритм для предложения уникальных 8,3 имен имеет большую работу, чтобы сделать. путем алгоритм работает, объяснен очень хорошо во "внутренностях окон 5-й выпуск, страница 946-947" .you может отключить ту опцию, контроль http://support.microsoft.com/?scid=kb;en-us;121007&x=15&y=12.
и имейте в виду, Вы не только проверяете 30k файлы в рабочий каталог, но svn создает .svn подпапку с локальной копией каждого из этих 30k файлов...
b) проводник: проводник имеет настоящее задание для отображения папок с большим количеством объектов в нем. это является трудоемким, чтобы отобразить всю статистику в списке, создать значки и что нет.
я подозревал бы главным образом проблему a)