scp использование большой памяти

Я сталкиваюсь с проблемой с scp при некоторых условиях, которые связаны с передачей нескольких файлов ГБ к SUSE® LINUX Enterprise Server 9 (ядро 2.6.xx) система на SGI Altix350 w/32 ГБ памяти.

Я использовал scp-r-p для копирования каталога в другого на на том же сервере, по некоторым причинам начинает использовать большую память и кэшируемый в главной команде, становящейся очень быстрой. Samba работает на системе.

Если у Вас есть какие-либо комментарии или на scp или на другом способе скопировать каталог с огромным количеством каталогов и файлов. Мне было бы интересно слышать об этом.

Спасибо за Вашу справку, KhalilHL

1
задан 04.04.2011, 22:18

3 ответа

Лично я предпочитаю использовать rsync поскольку это позволяет мне возобновиться приятно от прерванных передач.

Использовать его локально:

$ rsync -avP /path/to/source /path/to/destination

Передать локальный для удаленного:

$ rsync -avP /path/to/source user@remote:/path/to/destination

Передать удаленный локальному:

$ rsync -avP user@remote:/path/to/source /path/to/destination

Переключатели, которые я использовал:

  • - = Архив - создают точную копию дерева максимально близко
  • - v = Подробный - выступает за себя действительно
  • - P = показывают прогресс передач и позволяют резюме из частичных файлов.
1
ответ дан 17.12.2019, 00:22

Тот же сервер??

SCP имеет тонну шифрования наверху, которое является, куда Ваши проблемы памяти возникают из. Это также туннелировало через SSH, что означает, если Вы - материал SCPing между каталогами на ТОЙ ЖЕ машине, это создает туннель SSH к себе и затем шифрует трафик, который это должно затем дешифровать.

Почему Вы только не используете CP?

0
ответ дан 17.12.2019, 00:22

Я думаю, что Вы неправильно истолковываете вывод "вершины".

кэшируемый в главной команде, становящейся очень быстрой

Термин "кэшируемый" означает "кэш жесткого диска". Вы смешиваете с файлами мульти-ГБ, таким образом, Linux будет использовать (почти) каждый бит свободной RAM для помощи жесткому диску. После того как для процесса нужно больше памяти, ядро Linux будет автоволшебно освобождать часть кэша и использовать его для процесса. Это - нормальное и ожидаемое поведение.

0
ответ дан 17.12.2019, 00:22

Теги

Похожие вопросы