Да, stateless приложение типа hello world без БД отлично работает в такой схеме. Зачем, правда, таким приложениям столь сложная схема переключения? Фаулер в схеме указывает еще и две БД - для blue и green. И этот прекрасный момент все сторонники b/g подхода почему-то обходят стороной. Делов-то, обеспечить синхронизацию БД сначала blue -> green, применить миграции к green, переключить нагрузку на БД green, ...[какая-то магия]..., и blue с green поменялось местами без потери данных. Если из схемы b/g убрать раздельные БД, оставив одну центральную, то начинаются пляски с совместимыми миграциями, и начинаются вопросы к миграциям при откате приложения на предыдущую версию, если не взлетело. По сравнению с которыми плюс одномоментного переключения на новую версию и обратно несколько меркнет
Информация о прекращении продаж/поддержки self-hosted решений Jira и Confluence DataCenter - неверна, прекращены продажи редакции Server, и будет прекращен выпуск обновлений для них. Jira и Confluence в редакции DataCenter предполагает лицензирование от 500 пользователей, при этом российским компаниям их также не продадут, но есть варианты.
Зачем вводить региональные ограничения? Бордюры по всей России, а поребрики - только в Питере. Ну и есть мнение, что поребрик - это камень, выступающий над дорогой, встречается в таком виде весьма нечасто
Запланированное устаревание есть и в энтерпрайзных моделях (я бы сказал, что именно в них, по причине большей надежности). Некоторые случаи всплывали наружу, а про некоторые только вопли пользователей на форумах, которые поставили две ссд в миррор, с предсказуемым результатом
Было бы логично рассмотреть интеграцию в код OpenTelemetry а не привязываться к одному вендору. А OpenTelemetry коллектор может отсылать трейсы и в ElasticAPM
Да, "бесплатные" снапшоты есть только в zfs и btrfs, в случае только добавления данных они, к тому же, не занимают места, служа своего рода резервной копией от удаления. Также, снапшоты можно использовать для инкрементального бэкапа (на самом деле - асинхронной репликации) на другой сервер/диск
Проблемы с SMR не возникают только в том случае, если диск используется как архив - постепенно заполняется от первого цилиндра к последнему. Тогда черепичная перезапись не производит лишний оверхед, и это верно для любой файловой системы. Если это не так, на диск идут записи мелкими блоками в рандомные места (по причине фрагментации), это приводит к двойной перезаписи шинглов. То, что на многочисленных тестах SMR видно как падение скорости записи на заполненном диске. На файловых системах с COW это проявляется в большей степени из-за того, что частичная перезапись файла приводит к записи новых блоков, и образованию "дырок" по факту дискарда неиспользуемых блоков. ZFS такую фрагментацию проблемой особо не считает, но не SMR
Крайне не рекомендуется использовать диски SMR под файловыми системами ZFS и BTRFS. Ну только если вы туда только пишете, не удаляете и не модифицируете файлы (cow же), то есть использовать для архивного хранения (но зачем тогда btrfs?). Также рекомендуется иногда запускать scrub - так хотя бы зеркало развалится раньше, чем данные на обоих дисках окажутся испорченными. Ну и насчет btrfs скорее всего те же рекомендации, что и для ZFS по части использования ECC - при пересчете контрольных сумм (да, при scrub в том числе), ошибки памяти приведут к расхождению посчитанных и хранящихся значений
Логично бы снимать резервные копии с выделенных для этой цели реплик. Вот как их остановить в один момент для получения бэкапов в более или менее один момент времени… Альтернативный вариант — файловая система со снапшотами, может быть даже на общем для всех узлов хранилище. Но какой профит от центральной СХД и шарда из монг — довольно интересный вопрос.
В трансляции задали резонные вопросы, из которых следует:
Рассчитывать на появление коллизий в SHA256 — надо быть очень большим пессимистом
на первом этапе не было железа для реализации шардов на нескольких серверах, но был диск для "партиций"
Основная гигантская коллекция была просто key-value без дополнительных индексов
И кто помешал не городить велосипеды, а просто репартиционировать коллекцию средствами монги, а затем, при переходе к шардам, и шардировать — не ясно совсем. При том, что в итоге в эксплуатации осталась и старая база с программными партициями, а значит и логика в коде
Звонили тут мошенники 6 раз за два дня, и каждый раз с нового номера в разных регионах. Бросаешь трубку — через 20 сек звонок с другого номера. Видимо есть какой-то стык у них с операторами в РФ, где позволяется подмена номера на российские.
На госуслугах есть форма сообщения о факте такого звонка — https://www.gosuslugi.ru/600465/1/form
Есть вопросы к методологии тестирования как минимум ZFS. Под bs512 и 4k для ZFS вы имели ввиду recordsize? Это тот, который дефолтно 128k? И который в CEPH 4МБ? При том, что размер блока записи/чтения для максимальной скорости у самих NVMe SSD, может доходить до 512к (см методологию тестирования Intel)? Совершенно понятно, откуда такая разница в результатах между 512 и 4к, файловая система делает в 8 раз больше операций над метаданными. Какой у вас планируется ворклоад, даже для баз данных рекомендуется 8k, разве что виртуалки с WinXP 512 используют? Также не указана версия ZFS, на NVMe показывает в несколько раз более высокие результаты вторая версия (штатно идет с Ubuntu LTS 22.04), у вас видимо дефолтная для 20.04LTS 0.8.3
Подмена номера сервисами реализуется куда в более прозаических целях, нежели защита персональных данных клиента. Виртуальная АТС ведет запись всех разговоров, чтобы впоследствии разбирать конфликтные ситуации. А всякие авто.ру/авито — так те просто в целях маркетинга.
С такими коммисиями, как на апворке, отмыв денег выглядит несколько нелогичным. Проще уж товары с ebay заказывать с чужой карты на относительно левые адреса и перепродавать потом — по крайней мере следов не останется
Chrome и FF с Widevine на макоси не имеет никаких средств взаимодействия с системой, это обычный процесс в юзерспейсе. В Safari с FairPlay попробуйте, он не пишется. Впрочем, "записать с экрана" можно и в win, при использовании соотв софта. Но двойное перекодирование, потеря кадров и пр — не так интересно, как получение WebDL с этими инструментами
Если вы планируете использовать сервис "из коробки", без модификации кода или написания плагинов, то какая в сущности разница, на чем он написан. Да, python 2.7 для thumbor кажется устаревшим, но это самый фичастый инструмент из все перечисленных, с несколькими активными форками и сотнями плагинов
Imgproxy всем хорош, кроме наличия Pro версии, в которой в частности декларируется возможность использования кастомных вотермарков и более оптимальный алгоритм сжатия jpeg'ов.
Порядок следования фильтров в урле важен для подписи и в thumbor (подписывается uri), однако никто не мешает использовать nginx secure link для подписи любых сегментов урлов. Кэширование тоже вполне себе задача для nginx, а не для тумбора
Кроме того, мы направили всю собранную информацию в профильные организации.
А у этих профильных организаций, под которыми, видимо, понимаются борцы с DDoS-атаками, нет ли какой-нибудь ассоциации для координации усилий? Или каждый считает собранные блэклисты своим конкуретным преимуществом, и с другими в общем случае не делится?
Да, stateless приложение типа hello world без БД отлично работает в такой схеме. Зачем, правда, таким приложениям столь сложная схема переключения? Фаулер в схеме указывает еще и две БД - для blue и green. И этот прекрасный момент все сторонники b/g подхода почему-то обходят стороной. Делов-то, обеспечить синхронизацию БД сначала blue -> green, применить миграции к green, переключить нагрузку на БД green, ...[какая-то магия]..., и blue с green поменялось местами без потери данных. Если из схемы b/g убрать раздельные БД, оставив одну центральную, то начинаются пляски с совместимыми миграциями, и начинаются вопросы к миграциям при откате приложения на предыдущую версию, если не взлетело. По сравнению с которыми плюс одномоментного переключения на новую версию и обратно несколько меркнет
Информация о прекращении продаж/поддержки self-hosted решений Jira и Confluence DataCenter - неверна, прекращены продажи редакции Server, и будет прекращен выпуск обновлений для них. Jira и Confluence в редакции DataCenter предполагает лицензирование от 500 пользователей, при этом российским компаниям их также не продадут, но есть варианты.
Зачем вводить региональные ограничения? Бордюры по всей России, а поребрики - только в Питере. Ну и есть мнение, что поребрик - это камень, выступающий над дорогой, встречается в таком виде весьма нечасто
Запланированное устаревание есть и в энтерпрайзных моделях (я бы сказал, что именно в них, по причине большей надежности). Некоторые случаи всплывали наружу, а про некоторые только вопли пользователей на форумах, которые поставили две ссд в миррор, с предсказуемым результатом
судя по количеству инфоповодов с упоминанием названия компании, суть тут скорее маркетинговая
Было бы логично рассмотреть интеграцию в код OpenTelemetry а не привязываться к одному вендору. А OpenTelemetry коллектор может отсылать трейсы и в ElasticAPM
Да, "бесплатные" снапшоты есть только в zfs и btrfs, в случае только добавления данных они, к тому же, не занимают места, служа своего рода резервной копией от удаления. Также, снапшоты можно использовать для инкрементального бэкапа (на самом деле - асинхронной репликации) на другой сервер/диск
Проблемы с SMR не возникают только в том случае, если диск используется как архив - постепенно заполняется от первого цилиндра к последнему. Тогда черепичная перезапись не производит лишний оверхед, и это верно для любой файловой системы. Если это не так, на диск идут записи мелкими блоками в рандомные места (по причине фрагментации), это приводит к двойной перезаписи шинглов. То, что на многочисленных тестах SMR видно как падение скорости записи на заполненном диске. На файловых системах с COW это проявляется в большей степени из-за того, что частичная перезапись файла приводит к записи новых блоков, и образованию "дырок" по факту дискарда неиспользуемых блоков. ZFS такую фрагментацию проблемой особо не считает, но не SMR
Крайне не рекомендуется использовать диски SMR под файловыми системами ZFS и BTRFS. Ну только если вы туда только пишете, не удаляете и не модифицируете файлы (cow же), то есть использовать для архивного хранения (но зачем тогда btrfs?). Также рекомендуется иногда запускать scrub - так хотя бы зеркало развалится раньше, чем данные на обоих дисках окажутся испорченными. Ну и насчет btrfs скорее всего те же рекомендации, что и для ZFS по части использования ECC - при пересчете контрольных сумм (да, при scrub в том числе), ошибки памяти приведут к расхождению посчитанных и хранящихся значений
Логично бы снимать резервные копии с выделенных для этой цели реплик. Вот как их остановить в один момент для получения бэкапов в более или менее один момент времени… Альтернативный вариант — файловая система со снапшотами, может быть даже на общем для всех узлов хранилище. Но какой профит от центральной СХД и шарда из монг — довольно интересный вопрос.
В трансляции задали резонные вопросы, из которых следует:
И кто помешал не городить велосипеды, а просто репартиционировать коллекцию средствами монги, а затем, при переходе к шардам, и шардировать — не ясно совсем. При том, что в итоге в эксплуатации осталась и старая база с программными партициями, а значит и логика в коде
Звонили тут мошенники 6 раз за два дня, и каждый раз с нового номера в разных регионах. Бросаешь трубку — через 20 сек звонок с другого номера. Видимо есть какой-то стык у них с операторами в РФ, где позволяется подмена номера на российские.
На госуслугах есть форма сообщения о факте такого звонка — https://www.gosuslugi.ru/600465/1/form
Есть вопросы к методологии тестирования как минимум ZFS. Под bs512 и 4k для ZFS вы имели ввиду recordsize? Это тот, который дефолтно 128k? И который в CEPH 4МБ? При том, что размер блока записи/чтения для максимальной скорости у самих NVMe SSD, может доходить до 512к (см методологию тестирования Intel)? Совершенно понятно, откуда такая разница в результатах между 512 и 4к, файловая система делает в 8 раз больше операций над метаданными. Какой у вас планируется ворклоад, даже для баз данных рекомендуется 8k, разве что виртуалки с WinXP 512 используют? Также не указана версия ZFS, на NVMe показывает в несколько раз более высокие результаты вторая версия (штатно идет с Ubuntu LTS 22.04), у вас видимо дефолтная для 20.04LTS 0.8.3
Апач? Установка кучи пакетов не в докер? PHP 7.2, у которой окончательный EOL настал 30.11.2020? Ubuntu 18? Какой сейчас год?
Подмена номера сервисами реализуется куда в более прозаических целях, нежели защита персональных данных клиента. Виртуальная АТС ведет запись всех разговоров, чтобы впоследствии разбирать конфликтные ситуации. А всякие авто.ру/авито — так те просто в целях маркетинга.
Остается только догадываться, чему там учат на курсах администраторов Линукс, если авторы не видят разницы между BPF и eBPF
С такими коммисиями, как на апворке, отмыв денег выглядит несколько нелогичным. Проще уж товары с ebay заказывать с чужой карты на относительно левые адреса и перепродавать потом — по крайней мере следов не останется
Chrome и FF с Widevine на макоси не имеет никаких средств взаимодействия с системой, это обычный процесс в юзерспейсе. В Safari с FairPlay попробуйте, он не пишется. Впрочем, "записать с экрана" можно и в win, при использовании соотв софта. Но двойное перекодирование, потеря кадров и пр — не так интересно, как получение WebDL с этими инструментами
Если вы планируете использовать сервис "из коробки", без модификации кода или написания плагинов, то какая в сущности разница, на чем он написан. Да, python 2.7 для thumbor кажется устаревшим, но это самый фичастый инструмент из все перечисленных, с несколькими активными форками и сотнями плагинов
Imgproxy всем хорош, кроме наличия Pro версии, в которой в частности декларируется возможность использования кастомных вотермарков и более оптимальный алгоритм сжатия jpeg'ов.
Порядок следования фильтров в урле важен для подписи и в thumbor (подписывается uri), однако никто не мешает использовать nginx secure link для подписи любых сегментов урлов. Кэширование тоже вполне себе задача для nginx, а не для тумбора
А у этих профильных организаций, под которыми, видимо, понимаются борцы с DDoS-атаками, нет ли какой-нибудь ассоциации для координации усилий? Или каждый считает собранные блэклисты своим конкуретным преимуществом, и с другими в общем случае не делится?