Однако rclone на данный момент поддерживает много хранилищ:
Alias
Amazon Drive
Amazon S3
Backblaze B2
Box
Cache
Crypt - to encrypt other remotes
DigitalOcean Spaces
Dropbox
FTP
Google Cloud Storage
Google Drive
HTTP
Hubic
Mega
Microsoft Azure Blob Storage
Microsoft OneDrive
Openstack Swift / Rackspace Cloudfiles / Memset Memstore
OpenDrive
Pcloud
QingStor
SFTP
WebDAV
Yandex Disk
The local filesystem
Я как-то совсем не доверяю чему-то там, постоянно торчащему в трее и синхронизирующему в обе стороны. Можно извращаться и пускать под другим пользователем, не давая доступ на запись и собирая параллельно кучу глюков. Зачем все это, когда есть опенсорсная программа, работающая в одну сторону и запускающаяся, когда я сам этого захочу? Из плюсов - внятный вывод, поясняющий, чем программа занята в данный момент и высокая скорость работы даже на WebDav.
Что из отдельных "вкусностей" мне понравилось. Во-первых, программа умеет сравнивать по контрольной сумме. И делает это достаточно шустро. Во-вторых, закачка идет параллельно в несколько потоков, что сильно ускоряет процесс. В-третьих, можно указать директорию, куда будут складываться файлы, которые программа удалила или перезаписала. Ну и наконец, программа может синхронизировать два облака между собой. Опции достаточно обширны и с ними хорошо бы ознакомиться:
Да, программа кроссплатформенная, т.е. под Windows есть rclone.
Примеры команд
Синтаксис команд для работы с хранилищем прост:
Код:
# Просмотр списка контейнеров в хранилище
$ rclone lsd selectel:
# Создание нового контейнера
$ rclone mkdir selectel:[имя контейнера]
# Просмотр списка файлов в контейнере
$ rclone ls selectel:[имя контейнера]
# Копирование файлов с локальной машины в хранилище
rclone copy /home/local/directory
# Синхронизация файлов на локальной машине и в хранилище
$ rclone sync /home/local/directory selectel:[имя контейнера]
# Синхронизация файлов в хранилище с файлами на локальной машине
$ rclone selectel:[имя контейнера] sync /home/local/directory
При выполнении операций копирования и синхронизации rclone проверяет все файлы по дате и времени изменения или md5-сумме. Из директории-источника в директорию назначения передаются те файлы, которые были изменены.
Обратите внимание, что при использовании sync с опцией -c файлы сравниваются и по контрольной сумме, что замедляет процесс на время считывания файлов (многие хранилища позволяют считать сумму удаленно), зато можно периодически проверять, что бекапы идентичны.
Я считаю, что утилита - просто бомба, особенно в тандеме с borg backup, который делает просто идеальные инкрементальные бекапы с дедупом. Да и для синхронизации двух облаков аналогичного инструмента не найти.
У меня утилитка закрепилась в инструментарии, если что не понятно - спрашивайте.
OlegON➤ тебе ничто не мешает запустить rclone из под разных пользователей.
Несколько копий одной программы? И что это даст? И как в этом случае перемещать файлы между учётками?
Если действительно невозможно пользоваться несколькими учётными записями MEGA, то это большой минус rclone. Я пользовался CloudBuckit, AirExplorer, Air Live Drive. Там с этим проблем нет.
Непонятна конечная цель и не пользуюсь Mega, потому советы дать не могу, речь идёт не о копиях программы, а о копиях ее конфигурации, возможно, что каталог с конфигурацией можно задать в самой программе. Это первое, что пришло в голову. Файлы между учётками зачем перемещать?