Linux админ, врач-исследователь
36,1
рейтинг
18 августа 2014 в 21:29

Администрирование → Делаем backup Google или паранойя по поводу санкций. Owncloud и другие открытые решения tutorial



В свете последних топиков, в том числе «Autodesk не будет продавать ПО попавшим под санкции компаниям», появляется ощущение, что маховик абсурда все сильнее раскручивается. Мы не будем осуждать в этом топике политические причины всего этого безобразия, а подумаем немного о том, что произойдет, если внезапно «выключат Google», причем неважно с какой стороны. Также предлагаю рассмотреть один из вариантов забрать себе накопленный контент, используя открытое ПО.

Для начала давайте подумаем, что является наиболее ценным для большинства пользователей сервисов Google? В первую очередь, это личный контент, который хранится в облаке, почта и другие материалы. Во вторую очередь, это сервисы, которым нужно найти замену в кратчайшие сроки. Мы не будем рассматривать нужды профессиональных разработчиков под Android и корпоративные нужды.

Подготовительная работа


Для начала неплохо бы определиться куда мы будем складывать эти данные и во что нам это обойдется? Есть два основных подхода — взять всю инфраструктуру на себя и получить разовые расходы на железо или арендовать в облаке чужие мощности под свои нужды. Но так, как мы и так пытаемся избавиться от зависимости от внешних факторов, попробуем рассмотреть вариант полностью своей инфраструктуры.
Итак, наш текущий выбор — домашний сервер с Linux. Не умаляя талантов людей, собирающих сервер из палок, изоленты и китайского утюга, я бы настаивал на классическом x86-64 решении. В этом случае мы будем иметь следующие преимущества:
  • Масштабируемость — легко поменять добавить процессорной мощности, RAM или дискового пространства
  • Совместимость компонентов — не будет проблемы с заменой деталей, вышедших из строя
  • Совместимость софта — под x86-x64 архитектуру значительно проще найти необходимые пакеты, чем под редкий вариант ARM или MIPS.
  • Нет ограничений по пропускной способности SATA и LAN-интерфейсов, характерных для многих компактных ARM-платформ

С концепцией определились. Так как мы хотим легкого расширения компонентов, то разного рода mini-ITX формфакторы тоже не совсем укладываются в концепцию. Для себя я выбрал стандартный PC в корпусе BitPhenix Prodigy:

image

Также считаю крайне удачной серию HP Microserver Gen8, которая отличается компактностью, симпатичным внешним видом и возможностью замены процессора в рамках теплового пакета.

image

Цена обоих решений в районе 20 000 рублей. Немало, но домашний сервер может выполнять очень много различных функций. Чтобы не перегружать статью, будем считать, что железо у нас уже есть, а на его базе стоит Debian Wheezy или любой другой стабильный дистрибутив по вкусу.

Поднимаем Owncloud




Почему именно owncloud? Этот софт относится к открытому ПО и уже достаточно стабилен для повседневного использования. Есть клиенты под любые платформы, включая мобильные. Главный девиз проекта — веб-сервисы под вашим управлением. Это очень многофункциональный инструмент, который совмещает в себе серверную и клиентские части по типу Dropbox, календари, контакты, совместное редактирование документов, галереи фото и много чего еще. Если вам чего-то не хватает — к вашим услугам огромный ворох плагинов, которые, впрочем, часто не отличаются стабильностью.

Развертывание owncloud весьма несложно.

Ubuntu 14.04 и его форки
wget http://download.opensuse.org/repositories/isv:ownCloud:community/xUbuntu_14.04/Release.key
sudo apt-key add - < Release.key  
sudo sh -c "echo 'deb http://download.opensuse.org/repositories/isv:/ownCloud:/community/xUbuntu_14.04/ /' >> /etc/apt/sources.list.d/owncloud.list"
sudo apt-get update
sudo apt-get install owncloud

Debian stable
wget http://download.opensuse.org/repositories/isv:ownCloud:community/Debian_7.0/Release.key
apt-key add - < Release.key 
echo 'deb http://download.opensuse.org/repositories/isv:/ownCloud:/community/Debian_7.0/ /' >> /etc/apt/sources.list.d/owncloud.list 
apt-get update
apt-get install owncloud


Первичная настройка также не отличается сложностью. Сам owncloud базируется на PHP, нужные версии подтягиваются по зависимостям без проблем. Настройка Apache также не отличается особенностями. Подробнее можно почитать в разделе конфигурирование официального мануала. Основные грабли там описаны. Крайне желательно завести нормальный домен у недорогого регистратора и оформить себе ssl-сертификат, например, у StartSSL или сгенерировать его самостоятельно, но тогда понадобится добавлять сертификат на клиентских машинах.

Основные сервисы


Хорошо, сервер мы подняли, доступ снаружи есть. Что дальше? Рассмотрим основные возможности веб-интерфейса:



В новом интерфейсе меню выбора теперь скрывается за компактной кнопкой в верхнем левом углу. Рассмотрим основную часть возможностей.



Раздел файлы — здесь отображаются ваша структура каталогов.



Крайне удачно реализована система расшаривания файлов и каталогов. Можно сгенерировать публичную ссылку, защитить ее паролем и, при необходимости добавить срок действия. Также можно разрешить upload в данный каталог и возможность выкачать содержимое одним архивом.



Календарь. Классический с разделением на отдельные календари, группами и всеми прочими плюшками.



Контакты. Импорт в стандартных форматах, редактирование. Вроде есть возможность подключить к синхронизации к Android, как и календари вместо Google-сервисов, но я, к сожалению, не пробовал.



Для тех, кому не хватает стандартного функционала — любые плагины, включая шифрование, RSS и прочие.



Сервис галереи дает простой и удобный интерфейс для просмотра группы изображений.
За бортом в обзоре остались функции редактирования документов (odt, совместная работа, как замена Google Docs) и ряд других. Предлагаю попробовать самим.

Забираем свои данные




К счастью, Google предоставляет все возможности для выгрузки данных в удобных форматах. Сервис находится по этому адресу.

Все основные разделы доступны для включения в архив. Стандартный vcard формат с успехом импортируется в любой удобный софт, в частности в тот же owncloud.



Почта выгружается в универсальном формате mbox, который можно скормить тому же Mozilla Thunderbird.

Вместо резюме


Возможно это просто приступ паранойи. Возможно. Но каждый админ знает о важности бэкапов и уменьшении точек потенциального отказа. Всем добра и по галаперидолинке.

UPD
Не забывайте, что сервер становится точкой отказа. Есть несколько вариантов:
1) Забить. Если умрет цетральный сервер, то полные копии файлов останутся на всех клиентах.
2) Добавить RAID для увеличения отказоутстойчивости
3) Географически разнести копии сервера. Либо холодный бэкап через тот же BTSync, либо репликация KVM-контейнера в рамках ProxMox кластера из нескольких машин.
4) Любые другие идеи, которые увеличат отказоустойчивость.
Гуменюк Иван @Meklon
карма
468,5
рейтинг 36,1
Linux админ, врач-исследователь
Реклама помогает поддерживать и развивать наши сервисы

Подробнее
Реклама

Самое читаемое Администрирование

Комментарии (165)

  • +3
    Кстати, все вышесказанное также потенциально относится и к таким сервисам как dropbox и ряду других. От себя могу сказать, что совместная работа в owncloud оказалась очень удобной. Крайне важной фишкой оказалась возможность указать конкретные удаленные каталоги для синхронизации и указать целевые каталоги на локальной машине. Когда сервис свой, то его размер легко может достигать 100-200 ГБ. Ну и немаловажными оказались сервисы версионирования и хранения удаленных файлов согласно выделенным квотам. Предлагаю поделиться опытом)
    • 0
      Вообще есть страны, в которых гугл блокирует свой основной функционал? Честно говоря, тема привела в некоторое замешательство. В Иране и КНДР гугл не открывается?

      Понимаю еще особые сервисы вроде AdSence, AdWords, Google Play (завязаные на коммерции), но чтобы перестал работать Gmail или Drive… Одно могу сказать, в Google Play есть страны, где нельзя совершать платежи (в том числе Венесуэла, Китай и таки Иран).
      • +4
        Паранойя заразна) Сделайте бэкапы. Пусть лежит. А там посмотрим. Сейчас такая каша творится, что я ничему не удивляюсь.
        • 0
          Зачем сейчас-то?
          Заблокируют — тогда уж выходить через прокси и сливать дамп.
          А сейчас — просто трата времени.
          • 0
            А ситуация потери данных или блокировки с другой стороны? Я не заставляю. Невелик объём данных при его ценности.
          • 0
            Это если с нашей стороны заблокируют, то можно через прокси дамп сделать. А если заблокируют с той стороны и не по ip а просто списком все аккаунты у которых известно местоположение, то не факт что вам отдадут дамп. Хотя я конечно считаю такую ситуацию маловероятной, но всё таки дамп сделал — пусть у меня тоже лежит.
            • 0
              Ну, как раз списочный бан — совсем из области крайнемаловероятного.
              А вот лично конкретного юзернейма Гугл бывает и банит, за нарушение тех или иных правил пользования собой. Помню была новость про чувака, которого забанили за ник вместо имени в ГуглоПлюсе.
      • +1
        В Иране не работают Google Apps for Business. Причем полностью, вне зависимости от того в какой стране зарегистирован аккаунт. Просто с иранского айпишника невозможно залогиниться даже например в почту привязанного к гуглу домена. Это было очень неприятно когда я был в Иране, потому что отвалились полностью аккаунты почты, аккаунт на андроиде, а с учетом «очень быстрого» интернета в Иране (скорость там ограничивают специально, быстрый интернет доступен только по разрешению правительства) использование прокси и впн превращается в полнейшую боль.
        • 0
          Спасибо за полезную информацию, не знал) А медленный интернет (на который разрешение не нужно) — платный?
      • –2
        В Китае весь гугл заблокирован на корню, начиная с ютуба и поиска, заканчивая картами, переводчиком и всеми остальными сервисами. Не знаю, как они пользуются андроидом, думаю пишут свои клоны магазина приложений.

        Что касается «подготовки к санкциям», очень это похоже на «начали занимать очередь, чтоб к обеду освободиться». Компании ничего перекрывать не будут, в чём смысл им терять клиентов? А то, что перекрыли себе сами, самим надо и открывать.
        • +2
          Вы правы в целом. Но я хочу, чтобы на случай чего-нибудь неприятного у мешая под рукой была резервная копия. Например альтернативный вариант — google блокирует аккаунт конкретного пользователя «из-за нарушения правил». Каких не скажем. Вспомните блокировки разработчиков. Я не хочу потерять данные за последние 13 лет. Я регистрировался ещё когда Gmail по инвайтам был.
        • +1
          Но ведь Китай сам заблочил доступ к этим ресурсам и сервисам, а не гугл. Да, и кстати вы правы, у них есть куча своих поисковиков, свой «ютуб», «твиттер», и интернет-магазины для приложений. На счет аналога Maps разве что не уверен.
          • 0
            аналог maps тоже есть.
            map.baidu.com

            Отдельного внимания в них заслуживает режим изометрии:
            habrahabr.ru/post/115107/
      • 0
        Gmail и Drive очень сильно шифруются несертифицированными алгоритмами. Вполне себе повод.
  • 0
    а можно выгружать на регулярной основе, чтобы иметь копию гуглодоков-почты, но пока можно пользоваться ими? или штатной фичи реимпорта регулярного нет?
    • 0
      Можно выгружать сколько угодно. Там ограничение в три раза в день и не более семи раз в неделю. А в остальном как хотите.
  • +4
    Если вам от OwnCloud нужна только работа с файлами, то рекомендую выкинуть его, и поставить pydio. Намного более стабильная и приятная штука.
    • +1
      Нет, не только. У нас ещё и общий календарь и контакты. pydio умеет создавать удобные ссылки для внешнего доступа? Плюс, что с клиентами?
      • +1
        Умеет.
        Емнип, там можно даже сокращалки прикручивать (если интересно — посмотрите документацию плз, я это дело сразу отключил, ибо мне внешние ссылки не нужны).
        Клиенты — есть старый десктопный на жабе, и сейчас допиливается новый и модный на питоне.
        Для андроида тоже есть. Насчет прочих мобильных аппаратов — не в курсе.

        Вообще, штука очень сильно заточена именно на файло-шаринг. Там есть куча всего, связанного с этим.
        • 0
          Потыкаю, спасибо. Но, вероятно, будет не хватать части функционала.
          • 0
            Я тыкал. Календарь и контакты не нашел. Если есть кто тыкал лучше, ткните меня носом, пожалуйста. Вроде pyd.io не собираются делать НЕ для файлов.
            • 0
              Все верно. Я с разрабом общался на эту тему — мне было сказано примерно так — мы лучше сосредоточимся на файловых фичах, но сделаем все очень хорошо, чем будем делать кривой комбайн со всем подряд.
        • 0
          Мож я чего не понял, но не нашел десктопных клиентов у pydio.
    • 0
      Спасибо за наводку. Почитал сайт и не могу найти ответ на вопрос: можно ли там на автомате скачивать документ, открывать локально, править, сохранять и автоматом заливать обратно. Без лишних действий пользователя?
      В некоторых ECM такое есть. Если оно и тут будет, то цены не будет такому решению )
      • +1
        Если я правильно вас понял, то вы можете работать с установленным клиентом — тогда все изменения будут синхронизированы. Или, есть еще вариант — там есть простой онлайн-редактор.
        Еще, если ваш редактор поддерживает webdav — то можно через него вроде бы как. Я такой сетап не делал, точно гарантировать не могу, но вроде бы и так можно.
      • 0
        Не очень понял, что вы хотели. Можно редактировать в простом редакторе в браузере. Можно синхронизировать каталог и редактировать в нем. Версии от разных пользователей будут отличаться и маскироваться.
        • 0
          *маркироваться
    • 0
      У них же вроде синк-клиент пока нестабильный адски?
      • +1
        Вроде уже все в порядке. Linux, Windows на работе. За пару месяцев никаких проблем.
      • +1
        Может быть, пару лет назад был таким :)
        Год с лишним все ок.
    • 0
      Кстати, еще для работы с файлами есть довольно удобный SeaFile от наших китайских друзей. В свое время искали альтернативу дропбоксу на предприятии (нужно было локальное облачное хранилище). Выбирали между OwnCloud и SeaFile. Остановились на втором ( по OwnCloud было много отзывов о нестабильной работе, возможно сейчас уже что-то изменилось ). Уже почти год используем — тьфу, тьфу, проблем небыло пока. Однако функциональность SeaFile и правда не богата, есть мелкие недочеты, но как замена дропбоксу — работает исправно.
  • +1
    При переходе на www.google.com/settings/takeout получаю

    403. That’s an error.
    We're sorry, but you do not have access to this page. That’s all we know.


    при том что у меня apps аккаунт и я там один и самый главный. в настройках не нашёл как включать.

    • +4
      Ага, нашёл

      1) admin.google.com
      2) пользователи
      3) я
      4) Включено ещё N сервисов гугль
      5) Архиватор Гугль (ВЫКЛ)
      6) Включить
  • +5
    Письма хороши!
  • 0
    Для файлов bittorrent sync не быстрее будет?

    Кстати по поводу БП внизу — очень плохая идея, пыль скапливается и в режиме онлайн там легко не почистить (за месяц/два может доходит до аварийных отключений, у меня бывало). Лучше чтобы БП был наверху, тогда и чистить его легко и воздуха ему больше и он не гудит как вертолет.
    • 0
      Кстати по поводу БП внизу — очень плохая идея

      Если производителем предусмотрен пылевой фильтр (а в BitPhenix Prodigy он предусмотрен) то данная проблема не страшна.
      • 0
        Плюс он на ножках поднят над поверхностью. Внутри почти идеально чисто за 2 года.
      • 0
        У меня весь такой фильтр в пыли вечно, забивается и вызывает еще больше проблем. (быстрее перегрев)
        • 0
          Корпус ощутимо приподнят на ножках. Эти же элементы делают его очень удобным в транспортировке.

          • 0
            Да, такое поднятие хорошо, у меня в половину этого и жуть как забивается.
            Поищу этот корпус для закупки (хотя в идеале хотелось бы водянку в PSU).
            • 0
              Зачем водянка в PSU для такого сервера? Да там пассивного блока питания Ватт на 120 хватит с головой (и то если будете i5 ставить и RAID массив дисков на 4 хотя бы). А если на базе Celeron G18xx или Pentium G32xx — то и 80 Вт хватит. А то эта привычка вечно ставить минимум 400 Ватт, в любой комп… Есть же тесты сколько реально потребляют компы. Вот к примеру, смотреть потребление с интегрированной графикой. При этом учитывайте, что это потребление от розетки, т.е. еще процентов на 20 нужно уменьшить.
              • 0
                Я чисто из тишины. Так я знаю сколько потребляют ПК.
                • 0
                  Так пассивный блок питания работает тише любой водянки, вы же не жалуетесь на шумность блока питания ноута?.. Или у вас водянка без радиатора с кулером и помпы?
                  • 0
                    У меня еще нет водянки, я пока думаю лишь взять, но буду читать обзоры. В двух ПК самым громким является PSU…
                    • +1
                      Тогда лучше купите нормальный PSU (например, SeaSonic, суперские блоки, но дорогие, а их бюджетные модели быстро расхватывают, могу посоветовать изучить тесты блоков питания на fcenter.ru).
                      Либо более бюджетный вариант поменять кулеры в блоках питания, на нормальные, Noctua к примеру (на fcenter тоже есть тесты толковые по кулерам). Но опять же это если у вас более менее нормальные БП, а не китайский noname. И там возможно придется попаять, ну либо подключать кулер к материнке.
                      Тогда вы увидите, что даже низкооборотистые винты, оказываются самыми шумными в системе.
                      Ну и еще если с английским дружите то silentpcreview.com можно почитать по поводу шумности компонентов.
    • 0
      Для файлов bittorrent sync не быстрее будет?


      Проприетарное решение от американской компании. В чем разница с гуглом?
      • +1
        Ни в чем. Просто opensource альтернатива ещё в процессе. Потом перейду на открытое ПО.
      • –1
        Но это решение не хранит ваши данные на своих серверах, а в свойствах папок можно указать с каким хостом синкаться. Т.е. никаких промежуточных нод/серверов не требуется, данные хранятся у вас и теоретически, при условии отсутствия «закладок», пока вы сами установленное и настроенное данное ПО не отключите, оно будет исправно работать.
        • +1
          Трафик то сниффали, протокол исследовали, чтоб уверено говорить, что никуда кроме Ваших серверов данные утекают? Я думаю нет, протокол же почему-то закрыт…

          Так что все эти аргументы только «теоретически». В суровой реальности ничем от гуглодрайвов не отличается. Хотите распределенного хранения в гуглодрайве — всегда можете его синкать с несколькими серверами.
          • 0
            Ну зачем же сразу менять контекст… Чтобы показать собеседнику, что он как бы не прав, но исключительно в вопросе, про который он и не упоминал? :)

            Во-первых, я не просто так дописал «теоретически». Я не утверждаю, что такое решение не может быть выключено извне и что оно работает исключительно так, как заявлено.

            А во-вторых, контест топика
            что произойдет, если внезапно «выключат Google»

            Тут не идёт речи, что данные куда-то утекают, речь про утерю доступа к куче нажитого непосильным трудом своего контента. Я комментировал исключительно в этом контексте, и если прочитать мой коммент полностью, то можно заметить, что я на это достаточно однозначно указал ;)

            Ну а по вашему вопросу — не снифал, уверенно на эту тему ничего не говорю. Поставил btsync буквально на днях, посмотрел разве что, что при синке исходящий трафик примерно равен тому размеру, чего положили для синхронизации. Круглосуточно процесс не мониторил, если он вдруг ночью ещё куда-то данные отправит, я этого не замечу. Но на работе, за NAT'ом, клиенты из двух разных подсетей синкаться у меня не стали, не смотря на включённые оптции «промежуточные сервера» и «использование трекера», т.е. как минимум сразу после старта и/или начала синхронизации процесс на свои сервера не полез.
      • 0
        Мы знаем, что гугл хранит наши данные на своих серверах. Гугл об этом открыто заявляет.
        Мы не знаем хранит ли bittorrent sync наши данные на своих серверах. bittorrent sync заявляет, что не хранит наши данные на своих серверах.

        Это если прямо отвечать на вопрос. ;)
  • +1
    Спасибо за статью!
    Прямо вовремя )

    Можете ли подсказать, есть ли там API для следующих маневров:
    1. автоматическая синхронизация пользователей с внешней системой. Будь то 1С, ActiveDirectory, внутренний портал
    2. возможность через API давать доступ на папки и файлы группам пользователей и автоматическая синхронизация групп
    3. возможность автоматически выдавать доступ пользователям Б и В, если выдан доступ пользователю А. получая список пользователей Б и В от внешней системы.
    4. если файл уже закачан на ПК, и прошело 2 дня. я пытаюсь открыть этот файл локально, но на сервере его кто либо уже поменял. предположим не было доступа. как система разрешит конфликт?

    п. 3 нужен для корпоративного хранилища, чтобы скажем сотрудники одного отдела или руководство, автоматом получали доступ, при наличии таких настроек во внешней системе.

    Было бы очень интересно узнать про это )
    • 0
      Я не программист и не интегрировал никогда так тесно в бизнес его. На скрине с плагинами есть что-то похожее на то, что вы простите. Права доступа очень удобно привязывать к группам пользователей, все работает. Внешние плагины для LDAP и всякого там есть. Судя по потребностям — все очень активно пилят. По последнему пункту — будут сохранены все возможные версии файлов в рамках квот, а реплицироваться будет наиболее поздняя. Merge он точно не делает.
      • +1
        Кстати, снова по поводу pydio — главный разраб там предоставляет «серьезному бизнесу» свои тарифные планы на поддержку, в рамках которой может интегрировать кастомные фичи — pydio.com/plans
    • 0
      1. Седьмую версию особенно активно допилили под AD.
      2. Через API — хз, вроде как они открыли API с доками.
      3. Может дело не в пользователе А, а в группе, в которую входят Б и В? Доступ по группам есть.
    • 0
      Для корпоративного файлохранилища я бы посмотрел в сторону pyd.io все-таки.
  • +1
    Не хотелось бы к этому прибегать, но…
    Может кто-нибудь знает чем можно Evernote бекапить и заменить?
    • 0
      Из Evernote можно выгрузить в формате Enex, вместе с вложениями, а далее легко парсится и льется куда захочется.
      • +1
        А куда хочется-то?
        А то может мне и хочется, но альтернативы так и не нашёл.
        • 0
          Сразу скажу, что возможно неправильно понял слово «заменить»,
          Microsoft Office Onenote.
    • 0
      Бекапится он сам на десктоп, а если ещё и десктоп бекапится(хотя если тут не должно быть), то всё совсем пучком. Сам Evernote может в html экспортировать.

      Так что в общем случае сбежать с него можно будет даже если, не то что их сервера исчезнут, а даже если будут слать команды на удаление всех данных.
    • 0
      бекапить — CloudHQ (что на выходе — можно указать. можно например PDF и ENEX в Яндекс. Диске). Сервис платный.

      • 0
        Мы здесь решения автономные обсуждаем, вроде. Облака это понятно.
  • +2
    Бекапы по определению необходимая вещь. И паранойя здесь ни при чем.
  • +1
    Почему бы сразу не github.com/al3x/sovereign ?)
  • +1
    Контакты. Импорт в стандартных форматах, редактирование. Вроде есть возможность подключить к синхронизации к Android, как и календари вместо Google-сервисов, но я, к сожалению, не пробовал.


    Встроенными средствами — нет. Но owncloud может отдавать контакты в CardDAV. То есть, ставим на Андроид любую программу, умеющую синхронизацию по этому протоколу (например, CardDav-Sync) и скармливаем ей урл вида example.com/remote.php/carddav/addressbooks/USERNAME

    Календарём не пользуюсь, по идее аналогично — протокол CalDAV.
  • 0
    1. «Autodesk не будет продавать ПО попавшим под санкции компаниям» — примем законы, по которым всё что нельзя купить считается бесплатным :)

    2. HP Microserver Gen8 — могут точно так же перестать возить.
    Тема железа в принципе очень холиварная.
    Предпочитаю просторные корпуса, куда можно поставить любую мать, любой блок питания, и типа такой корзинки:
    store.mnt.ru/products/7464
    • 0
      Если перестанут возить HP, то вы ничего не потеряете. Внутри почти стандартное железо, кроме RAID-контроллера, вроде. Все можно заменить. Это просто очень продуманная компоновка.
      • –2
        Не правильно это: они нас лишат сервисов а мы в замен у них купим ещё больше барахла — не умно.

        А по железу: вопрос религиозный :)
        В этом недосервере диски не продуваются, железо не пойми какое, не ясно как там с апгрейдами и расширением функционала.

        Мне 5 дисков мало, аппаратный рейд не нужен, двд/блюрей — даже с доплатой не возьму.
        Зато нужны пара слотов PCI-E чтобы поставить приличную сетёвку, SATA контроллер и может ещё что то.
        Ещё мне очень удобно иметь возможность заменить мать, вероятно даже на другого формата.
        У меня просторный, стандартный корпус, куда встаёт куча матерей разных форматов, корзина на 4+1 для 3,5 и два места для 2,5 через переходники, и 4 — 5,25 отсека, куда спокойно встаёт корзина для дисков. Две вентилятора 120 штатно (один полностью продувает корзину с 4-мя дисками). И ещё куча места для циркуляции воздуха и проводов.
        Использовать корпус меньших размеров когда у тебя больше 5-6 дисков 3,5 — как минимум дискомфортно как для компановки так и для охлаждения.
        • 0
          Тут зависит от целей, согласен)
        • +1
          В этом недосервере диски не продуваются, железо не пойми какое, не ясно как там с апгрейдами и расширением функционала.


          У меня на шкафу в квартире стоит. Летом температура с учетом подпотолочного положения не превышала десктоп в просторном корпусе с хорошими вентиляторами. Брал версию без оптического носителя, вместо него ssd под bcache. Память проапгрейдил на сторонюю 16 гигов. Все четыре SATA HDD в программном рейде, ОС на sdcard во встроенном контроллере. Работает под домашнее файлохранилище, сервер БД, заббикса, редмайна и коллектор для видеонаблюдения.

          Так что из недостатков реально только то, что места под харды < 5. Но для своих четырех его полностью хватает.

          И да. Один PCI-E слот есть. Так что третью сетевуху Вы поставить сможете. Два PCI-E я не знаю зачем в общем случае в сервере нужно.
          • 0
            Можно ещё видеокарту поставить для hdmi и медиа-нужд. Но это я на 7 поколении делал. Там не было интегрированной.
      • +1
        HP Microserver из-за iLO берут. Это такая системка «компьютер внутри компьютера», которая позволяет удалённо полностью контролировать сервер, включая переустановку ОС и перепрошивку биоса.
        • 0
          Удобная штука. Но для домашней эксплуатации некритична. Я поначалу офигевал, что это такое на отдельном ip висит в DHCP. Красиво температурные карты рисует.
          • 0
            Если часто в командировках бываешь незаменимая практически. Я вот думаю как бы за вменяемые деньги домой ip-kvm для сборочной станции генты заполучить.
    • –1
      По-моему в такой корзине от дядюшки ФуньХу жёсткие диски получат нехилый такой перегрев. Там даже зазоров между ними нет. Лучше уж действительно просторный корпус
      • 0
        Температура дисков сейчас не поднимается выше 31 градуса. Лето. Жара. Все нормально продувает.
        • –1
          Нормально продувается это типа как в моём корпусе: www.nix.ru/autocatalog/cases_ascot/Miditower_ASCOT_69R5_460_V2.01_SILENT_Silver_EATX_460W_51416.html
          поток от вентилятора прямиком полностью проходит через все 4 диска, а вас он дует в стенку, с другой стороны тоже стенка.
          Кроме того, у вас же не все диски ещё установлены, когда все поставите картина изменится.
          А если поставить «горячие» диски на 7200 или выше то станет ещё заметнее, притом увеличение оборотов вентиляторов не будет давать линейного падения температуры.
          • 0
            У меня пока таких потребностей нет. Мне 6 ТБ хватает.
          • 0
            Да хорошо в микросервере продувается, хорошо. Мои
            Device Model: ST3000NC002-1DY166
            Device Model: HGST HUS724030ALA640
            Device Model: ST3000DM001-9YN166
            Device Model: Hitachi HDS723030BLE640

            сейчас, хоть и ночью, но на шкафу как я уже говорил, под нагрузкой держат среднюю температуру 35 градусов.

            Нет смысла в большом корпусе для файлсервера, если не вылезаешь за 4 диска.
      • 0
        А что поделать :(
        Есть ещё такой вариант: www.microlab.ru/catalogue/product/34995/ тут сквозных щелей больше.
  • +6
    Какие однако интригующие названия файлов у вас на скринах… вы в теме или это просто интерес?
    • +1
      А вы с какой целью интересуетесь?)
      • +1
        Человек хочет знать, к кому обращаться в случае чего)
        P.S. И я тоже, если хорошо подумать)
        • 0
          Это смотря, какой результат вы хотите получить))
          • +1
            Да какой тут результат… интересно почитать на эту тему.
            Не от дебиловатых репортеров, а от человека в теме. тем более который умеет грамотно излагать свои мысли.
            • +1
              Не могу я излагать на любые темы. К сожалению.
              • +1
                Не можете или низззя? )
                Тогда хотя бы скажите, на сколько все плохо…
                • +7
                  Все будет хорошо. Колонии на Марсе очень перспективны.
                  • +1
                    >Колонии на Марсе очень перспективны.

                    Ясно, значит можно начинать паниковать…
                  • +1
                    Это нужно добавить в избранное.
                    А где записывают хотя бы на Луну?
          • 0
            Интересно, Гугл за такие имена файлов не банит?..
      • 0
        Ну вдруг выпустили вирус и внезапно озаботились бекапом данных :)
        • 0
          Я думаю, что вас почта бы уже не волновала)
          • +3
            А что ещё делать холодными вечерами в бункере, как не перечитывать переписку? :)
  • 0
    Эхм, а есть ли что-нибудь со следующими требованиями (в определённой степени дублирует гугл):
    1) копирует и синхронизирует все контакты с телефона;
    2) делает бэкап настроек приложений/полный бэкап.

    Вопросы по топику:
    1) Каким макаром осуществляется обновление файлов? Если, к примеру, файл большого размера изменился, то будет скачиваться только .diff или целиком?
    2) Обязательно ли сервак поднимать на отдельном железе? Или мне может хватить моего ноута?

    Но, как я понимаю, от зонда всё равно не избавишься: без акка в гугле не будет работать маркет и ещё куча специфический фич типа удалённого контроля телефона.
    • 0
      Полностью подменить Google не получится. Но owncloud может заменить контактв, календарь и google drive. Ноута хватить должно, но как-то некошерно. Тут и винты под NAS нужны типа WD Red и лучше бы минимум 2 для копий. Насчёт diff не помню. Обещали точно, но результат не помню. У меня канал толстый, не обратил внимания.
      • 0
        А синхронизация напрямую будет проводиться?
      • 0
        Тут и винты под NAS нужны типа WD Red
        Кхе, для PHP-скрипта?
        • 0
          Сервер редко выполняет одну функцию. И данные винты во многом отличаются прошивкой и алгоритмом работы. Головки лишний раз не паркуют и т.п. Обычные десктоп-версии не любят круглосуточной работы.
          • 0
            Обычные десктоп-версии не любят круглосуточной работы.
            Действительно, то-то у меня десктопы по полгода работают без каких-либо проблем, но это-ж я, глупый, про винты не знал, загонял их, видимо… Вот вернусь, и обязательно себе специальные куплю, какие вы посоветовали!
            • 0
              Не надо иронизировать. Цены на Red и Black серию почти не отличаются. Но красные больше проходят для этой задачи. Я могу и шуруп в стену забить, и даже держаться картина будет, но зачем?
              • +1
                ЕМНИП, то наиболее заметным отличием red-серии является отношение винтов к ошибкам (чтения/хранения). Десктопные винты лучше потратят несколько дополнительных секунд, но попытаются ошибку поправить, а при наличии нескольких винтов в raid'е такое поведение нежелательно. Винты же red-серии вопрос исправления ошибки оставят на усмотрение raid-контроллера, и исправляться будут в свободное от работы время, зато все диски в массиве будут работать с одной скоростью (в плане возврата данных). В сухом остатке из заметного пользователю — десктопные винты в массиве могут вызывать затупы, а в особо тяжких случаях необходимость ребилда, а «red-винты» в десктопе без использования raid'а могут порождать ошибки при чтении.

                На шурупе картина держаться будет, но действительно зачем…

                А по поводу круглосуточной работы — тут скорее вопрос не во времени работы, а в количестве операций с диском, по большому счёту для винта не такая уж и большая разница выключен он или спит :)
              • 0
                А того, что собирался написать, и не написал :)
                Красные подходят больше для данных задач при условии использования raid…
    • 0
      Пока diff'ами не пахнет. Для запуска ноута хватит, а дальше все от нагрузки зависит.
      • 0
        Ну мне с телефона много не нужно сливать и обновлять. Я думал прикрутить Bittorrent Sync, но это чисто для бэкапа
        • 0
          Тогда это не проблема.
          Грустно, когда в 50 МБ sqlite файле добавишь пару значений, и он его весь пересылает.
          Особенно грустно, когда постоянно добавляешь значения, а инет с телефона…
          Пришлось переключить на rsync для одного файла.
        • 0
          Я BTSync в связке с телефонами тоже использую. Очень удобно.
          • 0
            А скажите, BTSync используете просто потому что начали раньше им пользоваться (если это так) и теперь просто продолжаете или же он чем-то лучше/удобнее чем owncloud в вопросе синхронизации файлов с телефона?
            • +1
              Исторически. Раньше клиент под Owncloud был очень убогим. Плюс у BTSync есть возможность нормальной двусторонней синхронизации. Ну и ничто так не пробивает любые NAT, как torrent-протоколы.
              • 0
                А не скажете — есть ли возможность на мобильном девайсе (android) удалить загруженный файл с устройства (чтоб место не занимал), но при этом чтобы он не удалился из папки вообще, т.е. чтобы потом при желании его опять можно было загрузить?

                Мне иногда и с телефона что-то перекинуть надо, иногда на телефон, т.о. нужна папка с полным доступом (а не read-only), но какие-то файлы мне надо разово посмотреть на телефоне, чтобы они постоянно на нём лежали мне не нужно. Или остаётся только несколько папок заводить, одну делать read-only и получать файлы на телефон только через неё, чтобы можно было их смело удалять?
                • 0
                  В Owncloud можно просто подтянуть нужные файлы. А BTSync после удаления еще месяц (или сколько настроите) хранит удаленное в каталоге ".Archives"
                  • 0
                    Owncloud ещё не настроил. Всё никак диски не докуплю в домашний сервер (уже месяц всё собираюсь). Как станет много места, так и настрою :)
                    Хотя вроде есть там 150 гигов свободных, может и раньше настрою :)

                    А хранение в .Archives не совсем то, что нужно. Просто для теста накачалось файлов на телефон, которые на нём не нужны, а их удаление с телефона приводит к удалению со всех устройств. Сделаю тогда пока пару папок для синка файлов на телефон, а после теста owncloud может и не понадобится больше такой вариант.
  • 0
    А чем заменить Gmail, это единственное что держит меня на гугле. Только не yandex mail.
    • 0
      У owncloud есть плагин — вебморда для почты на основе roundcube.
      Но сервер придется поднимать самому и настраивать антиспамы в силу своего разумения.
    • 0
      советую axigen
  • +1
    На первой картинке «нужно больше вентиляттров!».
    Вроде не первый год существуют маленькие неттопы с пассивным охлаждением.
    • +1
      Это Thermalright. Они абсолютно бесшумны. Два года назад спокойно спали с новорожденным ребёнком рядом с ним. Я его в упор почти не слышу. А температура винтов мне важнее. Почему не неттоп — я написал. Сейчас в нем уже 3 винта и 16 ГБ RAM. Куда я это в компакт запихну?
      • 0
        С таким качеством, если не жалко денег, согласен.
        У самого пока нет таких объемов.
      • 0
        Забавно говорить про бесшумность Thermalright с боксовым кулером на проце :)
        • 0
          Не спорю. Но, как ни странно, в фоне он еле крутится. Не слышно.
    • 0
      Процессор:Intel Core i5-3470, 3.20ГГц, 6МБ, LGA1155, BOX

      RAM:16ГБ (8Гбх2), PC3-10600, 1333МГц, Corsair Value Select CMV8GX3M1A1333C9

      HDD:3 штуки 2ТБ, 3.5", 5400об/мин, 64МБ, SATA III, Western Digital Red, WD20EFRX

      Motherboard:MSI B75IA-E33, B75, Socket 1155, DDR3, mini ITX

      Блок питания: ATX 430W Corsair CX 430 M, Active PFC, вентилятор 12 см, модульный, CP-9020058-EU, Retail
      • 0
        Дай вам бог у домашнего сервера загрузить такие проц и память хотя бы на 10%.
        • +1
          Когда как. Там пачка тестовых виртуальных машин с кучей всего. I2p, BTSync, owncloud, сервер minecraft и всякое разное. RAM в Linux отлично используется под кэш, процессор обычно на 15-25% загружен. Иногда больше, когда owncloud для клиента архив на пару гигабайт пакует. Я предпочитаю иметь запас. Core-i5 не сильно прожорливых без полной нагрузки.
          Да, я странный врач)
          • +1
            Понятно. Для owncloud apache замените на nginx+php-fpm, как начнет тормозить. Очень помогает.
            • 0
              Попробую, хотя пока ничего так… Много танцев с бубном?
              • +2
                Да нет, пример конфига от разрабов даже есть
                • 0
                  Спасибо, почитаю. А почему этот вариант не дефолт, раз производительнее?
                  • 0
                    С apache у пользователей меньше вопросов.
                    Не все ещё приучены к nginx+php-fpm.
                    Консервативность, обратная совместимость и т.д.
                • +2
                  Позволю себе посоветовать свой, доработанный немного и использующий поддиректорию, а не поддомен:

                  owncloud.conf
                  location ~ ^/mnt/data/owncloud/ {
                      internal;
                      root /;
                  }
                  
                  location ~ ^/tmp/oc-noclean/.+$ {
                      internal;
                      root /;
                  }
                  
                  location ^~ /owncloud {
                          root /usr/local;
                  
                          client_max_body_size 5G; # set max upload size
                          fastcgi_buffers 256 4K;
                  
                          index index.php;
                  
                          error_page 403 = /owncloud/core/templates/403.php;
                          error_page 404 = /owncloud/core/templates/404.php;
                  
                          location = /owncloud/robots.txt {
                              allow all;
                              log_not_found off;
                              access_log off;
                          }
                  
                          location ~ ^/owncloud/(data|config|\.ht|db_structure\.xml|README) {
                                  deny all;
                          }
                  
                          rewrite ^/owncloud/go/(.+) /owncloud/public.php?service=shorty_relay&id=$1 last;
                  
                          rewrite ^/owncloud/caldav(.*)$ /owncloud/remote.php/caldav$1 redirect;
                          rewrite ^/owncloud/carddav(.*)$ /owncloud/remote.php/carddav$1 redirect;
                          rewrite ^/owncloud/webdav(.*)$ /owncloud/remote.php/webdav$1 redirect;
                  
                          rewrite ^/owncloud/.well-known/host-meta /owncloud/public.php?service=host-meta last;
                          rewrite ^/owncloud/.well-known/host-meta.json /owncloud/public.php?service=host-meta-json last;
                  
                          rewrite ^/owncloud/.well-known/carddav /owncloud/remote.php/carddav/ redirect;
                          rewrite ^/owncloud/.well-known/caldav /owncloud/remote.php/caldav/ redirect;
                  
                          rewrite ^(/owncloud/core/doc/[^\/]+/)$ $1/index.html;
                  
                          try_files $uri $uri/ =404;
                          
                          location ~ ^(/owncloud/remote\.php)(/webdav/.*)?$ {
                                  try_files $1 =404;
                  
                                  gzip off; #Чтоб не стрипало e-tag
                                  include fastcgi_params;
                                  fastcgi_param SCRIPT_FILENAME $document_root$1;
                                  fastcgi_param PATH_INFO $2;
                                  fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                                  fastcgi_read_timeout 130s;
                                  fastcgi_pass    unix:/var/run/php-owncloud.socket;
                  
                          }
                  
                          location ~ ^(/owncloud/index.php)(/apps/documents/ajax/.*)?$ {
                  
                                  try_files $1 =404;
                  
                                  gzip off; #Чтоб работали документы
                                  include fastcgi_params;
                                  fastcgi_param SCRIPT_FILENAME $document_root$1;
                                  fastcgi_param PATH_INFO $2;
                                  fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                                  fastcgi_read_timeout 130s;
                                  fastcgi_pass    unix:/var/run/php-owncloud.socket;
                  
                          }
                  
                  #       location ~ ^(.+?\.php)(/.*)?$ {
                          location ~ ^(/owncloud/(\w+\.php|core/templates/40\d\.php|core/ajax/update.php|apps/files_encryption/files/error.php|apps/files/ajax/download.php))(/.*)?$ {
                                  try_files $1 =404;
                  
                                  include fastcgi_params;
                                  fastcgi_param SCRIPT_FILENAME $document_root$1;
                                  fastcgi_param PATH_INFO $3;
                                  fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                                  fastcgi_read_timeout 130s;
                                  fastcgi_pass    unix:/var/run/php-owncloud.socket;
                  
                          }
                          location ~ \.php$ {
                                  deny all;
                          }
                  
                          # Optional: set long EXPIRES header on static assets
                          location ~* ^.+\.(jpg|jpeg|gif|bmp|ico|png|css|js|swf)$ {
                                  expires 30d;
                                  # Optional: Don't log access to assets
                          #       access_log off;
                          }
                  }
                  



                  Привошу конфиг касающийся только owncloud'а. Из остальных настроек nginx, достойных упоминания, включен gzip.

                  Кусок php-fpm.conf:

                  [owncloud]
                  listen = /var/run/php-$pool.socket
                  listen.owner = nobody
                  listen.group = nginx
                  listen.mode = 0660
                  user = php-$pool
                  group = php-$pool
                  #вырезал настройки pm, так как они строго индивидуальны
                  request_terminate_timeout = 70

                  php_admin_value[upload_max_filesize] = 5G
                  php_admin_value[post_max_size] = 6G
                  php_admin_value[memory_limit] = 512M
                  php_admin_value[max_execution_time] = 60
                  #Это полезно настроить для безопасности, но не дошли руки до исследования нужных директорий
                  #php_admin_value[open_basedir] =
                  php_admin_value[upload_tmp_dir] = /mnt/data/owncloud.tmp
                  • 0
                    Какой он у вас… большой неочевидный :)
                    В принципе, главное что работает, хотя для начинающих я бы посоветовал более простой вариант.
                    Могу предположить, что в вашем конфиге каждая строчка написана «кровью».
                    Поэтому, не могли бы вы поделиться сакральным смыслом этих строк?
                    gzip off; #Чтоб не стрипало e-tag
                    gzip off; #Чтоб работали документы
                    fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                    
                    • +1
                      nginx, когда gzip'ает, вырезает http-заголовок e-tag, от этого сходит с ума owncloud-client при синхронизации. Начинает рандомно бессмысленно повторно синхронизировать файлы. Я сам чуть с ума не сошел это отлаживая.

                      owncloud documents, появившиеся в шестой версии owncloud просто не работают, если содержимое запроса /owncloud/index.php/apps/documents/ajax/.* возвращается gzip'нутым.

                      Ну и третье — это прям из документации. Я просто не мог пройти мимо такой вкусняшки.
                      • +2
                        nginx, когда gzip'ает, вырезает http-заголовок e-tag
                        Начиная с 1.7.3 не вырезает.
                        nginx.org/ru/CHANGES.ru
            • 0
              У меня объёмы невелики. Друзьям раздал сколько кому нужно и рабочая группа небольшая.
        • 0
          Память вообще легко, а с процом да, сложнее, особенно если не гонять какие-то расчеты.
        • 0
          http://www.worldcommunitygrid.org Решит проблему простоя :)
          • 0
            Нет, спасибо. Пусть симуляцию ядерных взрывов сами рассчитывают)
  • +2
    Если вы будете хранить информацию в неподконтрольных гуглу облаках — гуглу это может не понравится. Как прикажете улучшать качество поисковой выдачи(tm) если мы не сможем дотянуться до ваших файлов?!
  • 0
    А mail-сервера там нету?
    • 0
      Выше написали, что есть фронт-енд в виде веб-морды. А какой сервер — решать уже вам.
      • 0
        Имеется ввиду именно встроенного. Ну ок. Значит свой поднимать отдельно.
        • 0
          Так не linux-way комбайны пилить. Модульность это плюс.
          • 0
            Тем более вебморды и симпатичнее встроенной в OC есть.
  • –2
    Вы бы email Александра Борисовича Ковальчука получше замазали, раз уж вообще за это взялись.
  • 0
    Небольшой вопрос. А кто-то делал опыты по установки ownCloud именно в домашнем облаке? Под «облаком» я подразумеваю несколько физических машин. Ну, скажем, есть домашний сервер у меня и у моего друга. Я хочу установить ownCloud таким образом, чтобы для него оба компа выглядили как один и данные физически дублировались на обоих компах. И если один из них выйдет из строя, то все данные останутся на другом. Кто-то так пытался делать? А то иметь свой сервак с файлами и календариком это, конечно, хорошо, но не хочется держать это всё в одном месте…
    • 0
      Не пробовал, но по идее ничто не мешает вам поднять BTSync поверх файловой системы, на которой расположен owncloud. Это из простых решений. Либо в кошерном варианте распределенные файловые системы изначально. Owncloud на файловом уровне работает. Синхронизируйте ФС.
      • 0
        Спасибо за ответ. Надо будет попробовать. Просто интересно, насколько всё стабильно работает.
        • 0
          Бог его знает. Тыкать надо. Но не вижу критической проблемы. Если нужно просто холодный бэкап иметь, то хватит резервирования файловой системы. У меня поднята изолированная виртуальная машина KVM на 100 ГБ. Можно ее бэкапить или использовать распределенно штатными средствами того же ProxMox.
          • 0
            При таком подходе разумно резеврные копии хранить на отдельной машине (сервисе, переноске, облаке...), а именно этого я и хочу избежать :) Я и стараюсь сделать такую систему, которая работала бы как облако. Идея такая, что я заливаю фотки, они появляются только в моём аккаунте в ownCloud, но физически они хранятся на двух машинах: у меня и у моего друга. Его файлы и данные точно так же: хранятся физически и у него, и у меня. Если необходимо для него зашарить что-то, то ты просто открываешь ему доступ и файл даже копировать никуда не надо. Если на мой комп падает кирпич/сгорает в пожаре/конфискует НЛО, то я просто собираю другой комп, добавляю его в облако и каким-то удобным инструменом все данные снова попадают с компа моего товарища. Это я всё описал то, что хотелось бы иметь в самом идеальном варианте :) так что ownCloud очень интересный проект, нужно его попробовать. Я его год назад ставил, был очень корявым и глючным. Сейчас он выглядит намного лучше.
            • 0
              На самом деле даже в базовом варианте в случвае гибели сервера вы потеряете только базу данных. Сами файлы останутся в целостности у тех ПК, на которых клиент синхронизировался. А поднимать и перезаливать серверную часть придется заново.
            • 0
              Посмотрите в сторону KVM-контейнеров и ProxMox в режиме кластера. Тогда вы получите все, что хотели. Из неудобства — жирные контейнеры надо сразу отдавать на 100-300 ГБ. В контейнере — сервер с Owncloud.
          • 0
            Имхо, описание вашей виртуальной лаборатории может оказаться интересным. Может быть, напишете статью?
            • 0
              Может быть. Если вкратце, то ничего особого. Ввиду полного отсутствия профильного IT образования, приходится учить все самостоятельно по мануалам. Поэтому и поднимаю пачками машины и издеваюсь над ними, не переживая за сохранность. Особо удачные результаты идут в «продакшен» домашний. Я предпочитаю использовать изолированные контейнеры для отдельных сервисов, чтобы не натыкаться на грабли интерференции между ними. Особенно, когда речь идет о капризных веб-сервисах, чувствительных к конфигам Apache и тому подобным вещам. А так машины работают изолированно, окружение у каждого свое. Где-то Debian, где-то Ubuntu LTS. Миграция проще в плане KVM. Дома настроил, принес на работу и подключил. Удобно.
      • 0
        Проще всего rsync по крону тогда уж.
      • 0
        Кстати, что owncloud, что pyd.io умеют custom mounts — внешние файловые хранилища. Правда, насколько, я понял, они монтируются как отдельные виртуальные директории.
    • 0
      • 0
        Спасибо. Я не специалист по распределенным системам. Тут лучше профессионалов спросить. Я лишь домашний личный кейс привел.
  • НЛО прилетело и опубликовало эту надпись здесь
    • 0
      Посмотрите на мой комментарий выше про кластер из ProxMox. А вообще я BTSync использую для репликации особо ценных данных. Спасло, когда я сжег одновременно все HDD и SSD на рабочей машине случайно.
    • +1
      1. Можно хранить залитые файлы в ecryptfs, а зашифрованные версии rsync'ить по крону на арендованный сервер.
      2. Да делайте rsync раз в минуту, если позволяется инет. И суточные копии параллельно.
      3. Ну это очевидно.
      4. Суточные бэкапы параллельно с репликацией файлов. Можно чаще.
      5. Еще один сервер к п.1 на другом континенте.
      6. Репликация БД на другой сервер для уменьшения времени отсутствия облака
      7. Хранение образа виртуалки с настроенным сервером приложения owncloud.
  • +1
    Парни, потерпите немного — скоро Ethereum и MaidSafe подоспеют.

Только зарегистрированные пользователи могут оставлять комментарии. Войдите, пожалуйста.