Нам важно иметь возможность трекать качество наших ответов. Допустим, у нас есть две версии модели, и на конкретный вопрос обе ответили хорошо (или плохо). Мы всё равно хотим понять, какая из версий лучше, чтобы двигаться в нужную сторону.
Эти же рассуждения справедливы и для RL-этапа обучения. Нужно не только сообщать модели, что она плохо справилась, нужно дать ей градиент движения в сторону лучшего из двух ответов (даже если он плохой). Так, итерация за итерацией, ответы становятся лучше.
Конкретно в этом способе замера мы запрещаем ничьи. Значит, считаем, что проигрывает. Но мы делали и замеры с ничьими, ничью считали по 0.5 обеим моделям. Разница в числах очень небольшая.
Сложно понять, что такое 17% в вашей интерпретации. Если упростить: есть 3 вопроса, в двух из них новая модель побеждает, в одном — проигрывает. 2:1. Это очень большой перевес.
У нас есть вера в то, что базовая модель должна быть максимально эрудирована во всех областях. Тогда на её основе легко можно будет решить любую задачу.
А по предложенной архитектуре, если честно, то нам самим не понятно, сработает ли она.
Пока говорить об опенсорсе рано, так как наша новая модель находится в активной стадии разработки. В планах большие изменения как на уровне датасетов, так и в стадиях обучения.
Сейчас YaGPT не подключена к поиску. Модель помогает сочинять тексты или генерировать идеи, но не искать контент. С поиском фотографий Сталоне отлично справится поиск Яндекса по картинкам.
Вот почему не скип-лист например можете ответить, а в чём разница между ним и B-tree будет, а почему бы его не использовать для индексов, сложности-то там одинаковые номинально? На эти вопросы не надо отвечать здесь и сейчас, это я в тему «а что там ещё может быть?»
Это довольно просто. B-tree в отличие от большинства других структур данных с логарифмическим поиском в худшем случае хранит кучу данных в одной ноде. То есть это дерево ветвиться гораздо быстрее многих других деревьев. У обычного бинарного дерева поиска или скип листа или чегото подобного будет log2 операций обращения к hdd, а у B-tree может быть log512 например. Это критически важно когда надо работать с hdd. У hdd очень маленький штраф за считывание подряд идущего куска данных, но очень большой штраф за навигацию магнитной головки. Перестройка (запись) тоже у B-дерева быстрее на hdd, по тем же причинам.
В оперативе B-деревья не используют, потому что для операции вставки поиска надо сделать много действий. Ассимптотика будет той же что и у аналогов, но константа хуже.
У меня было такое же негодование про Kindle Paperwhite with Special Offers. Там вообще платная железяка с рекламой. Понятно, что в России можно её отключить. Понятно, что можно купить версию без рекламы, но подороже. Но по сути нечто платное может содержать в себе рекламу. Купившие юзеры сами на это согласились. Меня это совсем не обрадовало. Это главная причина почему я Kindle не купил.
Человек попросил совет о том как ему стать «сильным программистом», а Вы ему книжку по Русскому языку суёте. Оно конечно полезно, но…
Лучше посоветую немножко запариться на тему грамотности.
Лучше чем что? Чем улучшить навыки программирования?
Мой менее грамотный «контр-совет» состоит в том, чтобы просто заниматься интересными вещами и не боятся делать ошибки на своём пути. Почитайте статьи типа этой. Таких статей много. Их Вы легко найдёте в гугле.
Тут тоже получается палка о двух концах. Ведь когда на работу человека берёшь, то оцениваешь его по скиллам (в смысле зп). Т.е. в оценке, со стороны работодателя обычно подразумевается что человек работает X часов в неделю с его текущим скиллом (тем самым подразумевается определённая продуктивность). Если не оговорено обратного, то работник тоже с этой оценкой согласен. А тут получается что сам сотрудник проигрывает себе же теоретическому, пусть не в 5 раз (все мы не роботы), но всё равно проигрывает. Т.е. негласный договор нарушен. Это если неформально подойти.
Конечно не верит! Правильно делает!!! Если для работы браузеру не нужны права админа, то он может не хотеть их брать.
0-Day уязвимости находили во всех значимых браузерах, их ещё найдут во всех значимых браузерах. Microsoft прекрасно понимает что и их браузер(ы :)) не исключение. Если Microsoft разрешит запустить IE из под админа, а потом кто-то заэсплойтит такую уязвимость, то… Короче нормальное, ответственное поведение.
P.S. Даже странно защищать IE, сам не юзаю его %):)
Ваш комментарий побудил нас увеличить лимиты:) Совсем отменить их пока что не сможем.
Нам важно иметь возможность трекать качество наших ответов. Допустим, у нас есть две версии модели, и на конкретный вопрос обе ответили хорошо (или плохо). Мы всё равно хотим понять, какая из версий лучше, чтобы двигаться в нужную сторону.
Эти же рассуждения справедливы и для RL-этапа обучения. Нужно не только сообщать модели, что она плохо справилась, нужно дать ей градиент движения в сторону лучшего из двух ответов (даже если он плохой). Так, итерация за итерацией, ответы становятся лучше.
Конкретно в этом способе замера мы запрещаем ничьи. Значит, считаем, что проигрывает. Но мы делали и замеры с ничьими, ничью считали по 0.5 обеим моделям. Разница в числах очень небольшая.
Сложно понять, что такое 17% в вашей интерпретации. Если упростить: есть 3 вопроса, в двух из них новая модель побеждает, в одном — проигрывает. 2:1. Это очень большой перевес.
У нас есть вера в то, что базовая модель должна быть максимально эрудирована во всех областях. Тогда на её основе легко можно будет решить любую задачу.
А по предложенной архитектуре, если честно, то нам самим не понятно, сработает ли она.
Кликнуть на Алису и сказать «Давай придумаем (кроме Линукса и Мака — там пока только на ya.ru).
Пока говорить об опенсорсе рано, так как наша новая модель находится в активной стадии разработки. В планах большие изменения как на уровне датасетов, так и в стадиях обучения.
Да, это точно наша собственная разработка. ChatGPT не используется ни в виде API, ни в виде его ответов в обучающей выборке.
Подобно человеку, модель догадалась, что на самом деле имел ввиду пользователь.
Мы попробовали отвечать всегда с подводкой, но тогда модель начинала чаще отказываться отвечать на вопрос, даже не касающийся ее личности.
Немного умеет, но целенаправленно в эту сторону мы пока её не тренировали. Можно попробовать, время от времени у модели получается решить задачу.
Пока нет, но следите за новостями. У нас большие планы.
Сейчас YaGPT не подключена к поиску. Модель помогает сочинять тексты или генерировать идеи, но не искать контент. С поиском фотографий Сталоне отлично справится поиск Яндекса по картинкам.
Это довольно просто. B-tree в отличие от большинства других структур данных с логарифмическим поиском в худшем случае хранит кучу данных в одной ноде. То есть это дерево ветвиться гораздо быстрее многих других деревьев. У обычного бинарного дерева поиска или скип листа или чегото подобного будет log2 операций обращения к hdd, а у B-tree может быть log512 например. Это критически важно когда надо работать с hdd. У hdd очень маленький штраф за считывание подряд идущего куска данных, но очень большой штраф за навигацию магнитной головки. Перестройка (запись) тоже у B-дерева быстрее на hdd, по тем же причинам.
В оперативе B-деревья не используют, потому что для операции вставки поиска надо сделать много действий. Ассимптотика будет той же что и у аналогов, но константа хуже.
Лучше чем что? Чем улучшить навыки программирования?
Мой менее грамотный «контр-совет» состоит в том, чтобы просто заниматься интересными вещами и не боятся делать ошибки на своём пути. Почитайте статьи типа этой. Таких статей много. Их Вы легко найдёте в гугле.
А если формально, то сотрудник всё равно не прав (по моему).
0-Day уязвимости находили во всех значимых браузерах, их ещё найдут во всех значимых браузерах. Microsoft прекрасно понимает что и их браузер(ы :)) не исключение. Если Microsoft разрешит запустить IE из под админа, а потом кто-то заэсплойтит такую уязвимость, то… Короче нормальное, ответственное поведение.
P.S. Даже странно защищать IE, сам не юзаю его %):)
По моему это просто чудесно!!! :) Наконец это появилось и в C#!