Я сталкиваюсь с проблемой с scp при некоторых условиях, которые связаны с передачей нескольких файлов ГБ к SUSE® LINUX Enterprise Server 9 (ядро 2.6.xx) система на SGI Altix350 w/32 ГБ памяти.
Я использовал scp-r-p для копирования каталога в другого на на том же сервере, по некоторым причинам начинает использовать большую память и кэшируемый в главной команде, становящейся очень быстрой. Samba работает на системе.
Если у Вас есть какие-либо комментарии или на scp или на другом способе скопировать каталог с огромным количеством каталогов и файлов. Мне было бы интересно слышать об этом.
Спасибо за Вашу справку, KhalilHL
Лично я предпочитаю использовать rsync
поскольку это позволяет мне возобновиться приятно от прерванных передач.
Использовать его локально:
$ rsync -avP /path/to/source /path/to/destination
Передать локальный для удаленного:
$ rsync -avP /path/to/source user@remote:/path/to/destination
Передать удаленный локальному:
$ rsync -avP user@remote:/path/to/source /path/to/destination
Переключатели, которые я использовал:
Тот же сервер??
SCP имеет тонну шифрования наверху, которое является, куда Ваши проблемы памяти возникают из. Это также туннелировало через SSH, что означает, если Вы - материал SCPing между каталогами на ТОЙ ЖЕ машине, это создает туннель SSH к себе и затем шифрует трафик, который это должно затем дешифровать.
Почему Вы только не используете CP?
Я думаю, что Вы неправильно истолковываете вывод "вершины".
кэшируемый в главной команде, становящейся очень быстрой
Термин "кэшируемый" означает "кэш жесткого диска". Вы смешиваете с файлами мульти-ГБ, таким образом, Linux будет использовать (почти) каждый бит свободной RAM для помощи жесткому диску. После того как для процесса нужно больше памяти, ядро Linux будет автоволшебно освобождать часть кэша и использовать его для процесса. Это - нормальное и ожидаемое поведение.