Pull to refresh
1
0
Дмитрий Ажичаков @diseaz

User

Send message
Это сейчас очки с «большой камерой» не вводят в заблуждение. И смартфон с 6-ю камерами не вводит. Но если бы такой закон существовал лет 20 назад, то до сих пор сидели бы с каким-нибудь Nokia 3310, потому что в новых телефонах — камера, куча памяти на флешке под диктофон, GPS, все дела. А если бы существовал 30 лет назад, то и Nokia 3310 не было бы, т.к. телефон должен быть красный, с диском и трубкой на проводе, иначе «вводит в заблуждение». И камера должна быть размером с чемодан и трещать при съёмке, иначе вводит в заблуждение.
Дополнительная единица трафика из поиска (за октябрь-март 2018/2019) обошлась менее чем в 2 копейки (65600 руб./35177 визитов).

Это цитата из статьи. Я округлил процентов на 10-20 всего. :)

60000 руб. / 30000 посещений = 2 копейки/посещение. В 100 раз дешевле, чем у конкурентов!

Я не понял, о какой именно городской легенде идёт речь:


  1. Гугл сделал из Хромов ботнет, через который «исключительно люди» посещают и вручную мониторят все бинарники и лендинги?
  2. Хром каждого пользователя отсылает в Гугл всё, что скачивает для «исключительно людей»?
  3. В Хроме есть какая-то доп. функциональность для «исключительно людей» в стиле «прокликай 1000 ссылок, которые мы предложим, и получи $1»?

Во-первых, это всё чушь (с вероятностью 99.9%). Во-вторых, это не опровержение, не подтверждение, и вообще никаким боком не связано с моим постом: куча вполне легитимных ботов в Сети вполне легитимно и открыто кладут с прибором на robots.txt.

Когда очень надо, чихать хотел и Google, и Яндекс, и все прочие на robots.txt. Не только зайдут, но ещё и анонимно, маскируясь под пользователя. Просто потому, что иначе не сделать хоть сколько-нибудь работающий SafeBrowsing и не проконтролировать адекватность страниц, на которые ведут рекламные объявления. Если не ходить под robots.txt и не маскироваться, то первый же школьник догадается спрятать очередной «Internet speed booster» с трояном под robots.txt или отдавать заготовленный «хороший» landing только *bot'у, а всем остальным — какое-то говно, которое нарушает все правила рекламного сервиса.

Есть и другие легитимные активности, которые намеренно и в открытую игнорируют robots.txt для выполнения своей функции.

Статья называется «Наша проблема…», а автор из Гугла.


В гугле нет проблемы конфликта версий. В общем репозитории одна версия. А про обновления в статье есть: нужно соблюдать баланс, т.к. обновлять слишком редко — затраты на само обновление (стремятся к затратам на добавление новой зависимости) и риск не получить обновление безопасности, а обновлять слишком часто — относительно мелкие, но частые затраты на review приехавших изменений. Можно поэкспериментировать с новыми версиями, и обновить, если оно того сто́ит.

А чем это отличается от обычного монорепа? Например, тот же svn уже стопицот лет умеет partial checkout, и каждый подкаталог, и даже файл можно выкачать нужной ревизии. Только, в отличие от git'а, выкачивается не вся история, а только нужная ревизия.

Ага, и рабочий стол асбестовый.

Уникальность результатов и предвзятость — совершенно разные вещи.


В поиске одновременно(!) идёт большое число (сотни) экспериментов (A/B тестирование). Каждый (!) пользователь участвует в нескольких сразу. Набор экспериментов для каждого уникален, с хорошей точностью. Поэтому да, результаты уникальны.


Эксперименты пользователю назначаются случайно, на основе hash(ID), который присваивается даже анонимному пользователю при первом обращении. Но случайное исправление выдачи ≠ предвзятость.

Значит Gmail — плохой пример в данном конкретном случае. Ибо бурная деятельность тут происходит не на уровне JS, а как раз на тех уровнях, где статическая типизация. И JS мог развиться до любых высот, но есть груз легаси в инструментах компиляции и потребность запускаться на legacy-браузерах.

Вытащить информацию о типе можно и в питоне, например. Питон — строго типизииованный, но не статически. К слову, в стиле duck typing можно херачить на, наверное, любом языке с достаточно мощным reflection'ом, например на Go.

Так Gmail-то как раз — про статическую типизацию. Исходно там были всякие Java+GWT и Closure со включённой строгой типизацией при компиляции. Финальный JS, который грузится на клиент — машиногенерённый, как байткод Java, который, к слову, тоже не особо statically typed со своими дженериками через object.

Тогда в городе нужно двигаться не быстрее 5 км/ч и автомобили не нужны — пешком быстрее и здоровее.

Так Роскомпозор для этого и создавался, а не для политцензуры.

А как узнать среднерыночную стоимость скиллов? Объявления о вакансиях не предлагать, там заниженные данные. Кроме того, наиболее интересные предложения вообще не появляются в общем доступе с ценами, вроде того же Гугла.

Тигр был лучше Т34 объективно, но войну проиграл. Lamborghini лучше Lada, но популярнее Lada. И всё это не по идеологическим причинам, а вполне по экономическим.


Так же и со всеми языками, операционками и прочим софтом. Всё было обусловлено экономически. Требовалась ОС, которую можно кастомизировать, и дешевле оказался кривой Linux, чем коммерческие UNIX'ы. ЯП выигрывают, когда появляется много раб. силы соответствующей квалификации​ по соответствующей цене.

Почему же сразу пиратить? Если он честно приобретён, хоть и в составе с другим ПО, то может спокойно использоваться и с NVDA.
С трояном и кейлоггером можно сразу сессионную куку перехватывать. Чего лишнюю возню разводить?

Information

Rating
Does not participate
Location
Россия
Registered
Activity