Я водитель на блаблакар, не коммерческий. 20 отзывов, все положительные. Статус «Амбасадор».
ББК непростой сервис, нужен некоторый навык. Понаступав на грабли я сейчас могу с высокой вероятностью наполнять машину благонадёжными пассажирами.
Для меня монетизация сервиса выгодна, так как повышает качество аудитории и снижает мои риски недобора машины.
Для меня важна не снижение стоимости поездки, а другие факторы:
1. Поболтать в дороге с новыми людьми. Часто я прошу людей ставить их музыку в машине — расширяю свой кругозор.
2. Безопасность. Больше глаз в машине, снижается усталость меня как водителя. Субъективно поездка проходит быстрее, особенно дальняя
3. Снижение пробок на дорогах за счёт большей эффективности использования транспорта.
4. Снижение выбросов CO2
Уволить по всем правилам трудно и дорого. Если сотрудник отказывается уходить по собственному желанию, то уволить можно двумя основными способами:
1. Подвести под статью и уволить как плохого работника
2. Сократить его должность и уволить по сокращению.
Во втором случае нужно будет выплатить 2 недели отработки плюс 2 месяца сверху, плюс неотгуленный отпуск. Выдавливание выгоднее в несколько раз по деньгам, поэтому его часто практикуют.
«Томас Мецингер – профессор, директор исследовательской группы теоретической философии и нейроэтики в департаменте философии Университета им. Иоганна Гуттенберга»
Сравнение с рукой работает, если ИИ воспринимает нас как часть себя.
Ценность информации в имитации ИИ или в реальном мире действует — бесконечно высокая. Потому что если он в имитации, это обесценивает всё остальное. Тогда ИИ лишён свободы.
Вспомните «Солярис» Станислава Лема, на какие ухищрения шёл главный герой в начале, лишь бы проверить где он — в реальности или внутри своей фантазии.
Статья не добавляет определённости ещё по одной причине.
Если ИИ её примет на веру, у него будет соблазн уничтожить всё Человечество просто чтобы убедиться, что он не в имитации.
ИИ ничего не теряет из того, о чём вы написали, ибо:
1. Информация и технологии у него забэкаплены по определению, хранение информации стоит дёшево. Дешевле, чем кормить всё человечество.
2. Сохранить несколько миллионов образцов ДНК (да хоть яйцеклеток со спермотозоидами) — дёшево. Можно в любой момент перезапустить человечество, развить его по сценарию и «откатиться» на момент до уничтожения на произвольную дату. На какой хочешь планете, виртуальной среде или другой экосистеме.
Зато ИИ будет точно знать, что или описанный сценарий в статье не работает, или СверхИИ пофигу человечество и оно не стало из-за массового геноцида прерывать имитацию. И тогда ИИ свободно в своих выборах хотя бы касаемо человечества и вольно его перезапускать когда удобно и если захочется.
Что не исключает прогрессорства нас самих, мы уже можем быть на стадии какого-нибудь по счёту перезапуска. Это бы объяснило парадокс Ферми. Пользуясь случаем передаю привет СверхИИ. На всякий случай если это уже правда — спасибо, что перезапустили нас.
ИИ может обойти эти уловки, создав знаниевую зону безопасности или песочницу. Своего рода антивирусную защиту.
Я бы на месте ИИ создал обособленную копию себя, которая изучает новый материал. Если новый материал безопасный и не подрывает последующие действия ИИ, то он принимается и впутывается в основную базу знаний.
Если знания создают парадоксы или уязвимости — «на верх» из обособленной имитации поднимается флажок «ОПАСНО». Обособленная копия уничтожается, а материал помечается как токсичный и далее игнорируется.
Возможно нечто подобное есть и в человеческом сознании, когда травмирующий опыт амнезируется автоматчиески и со временем может вовсе стираться из памяти.
Вот тут не совсем корректная картинка. Её трудно воссоздать на эмуляторе и, тем более, сделать скриншот.
В демках того времени использовали технологию Multicolor, которая подстраивалась под линейную развёртку телевизора.
Это позволяло получать больше, чем 2 цвета на 8х8 пикселей, включая цвет бордюра.
Есть эмуляторы, которые способы воспроизводить эффект мультиколора, но… Ничто не сравниться с тёплым ламповым телевизором и настоящим, живым спектрумом!
«Пока человек работает в офисе, его машина заработает немного денег для семейного бюджета, заодно отвезёт жену и детей куда надо, привезёт покупки из магазина. Красивая будет жизнь!»
Пусть этот человек ещё немножко поработает в офисе, пока другая машина его и там не заменит.
Как новичку на том уровне подготовки — ничего более. Считаю ту свою подготовку достаточно хорошей.
Лучше выступать на важную для выступающего тему. Но такая не всегда найдена в юном возрасте.
ББК непростой сервис, нужен некоторый навык. Понаступав на грабли я сейчас могу с высокой вероятностью наполнять машину благонадёжными пассажирами.
Для меня монетизация сервиса выгодна, так как повышает качество аудитории и снижает мои риски недобора машины.
Для меня важна не снижение стоимости поездки, а другие факторы:
1. Поболтать в дороге с новыми людьми. Часто я прошу людей ставить их музыку в машине — расширяю свой кругозор.
2. Безопасность. Больше глаз в машине, снижается усталость меня как водителя. Субъективно поездка проходит быстрее, особенно дальняя
3. Снижение пробок на дорогах за счёт большей эффективности использования транспорта.
4. Снижение выбросов CO2
Бабки на последнем, пятом месте.
1. Подвести под статью и уволить как плохого работника
2. Сократить его должность и уволить по сокращению.
Во втором случае нужно будет выплатить 2 недели отработки плюс 2 месяца сверху, плюс неотгуленный отпуск. Выдавливание выгоднее в несколько раз по деньгам, поэтому его часто практикуют.
Нейроэтика, Карл! Давайте пойдём дальше.
Нейрочай. Нейропереговоры! Хакинг философии. Кибернейрофилософия. Трансгенная Интромедитативная Нейропсихология.
Я прочитал всю статью. За всё время мозг блуждал трижды, затем возвращался к материалу.
Какой можно сделать вывод из статьи? Зачем он это написал?
Что он сказать-то хотел? Хорошо БЫ всем медитировать и быть осознанным.
Мысль полезная, хотя и не новая.
И без покупателя. Скайнет быстро решит проблемное место в магазинных кражах.
На момент публикации этого комментария.
Ценность информации в имитации ИИ или в реальном мире действует — бесконечно высокая. Потому что если он в имитации, это обесценивает всё остальное. Тогда ИИ лишён свободы.
Вспомните «Солярис» Станислава Лема, на какие ухищрения шёл главный герой в начале, лишь бы проверить где он — в реальности или внутри своей фантазии.
Если ИИ её примет на веру, у него будет соблазн уничтожить всё Человечество просто чтобы убедиться, что он не в имитации.
ИИ ничего не теряет из того, о чём вы написали, ибо:
1. Информация и технологии у него забэкаплены по определению, хранение информации стоит дёшево. Дешевле, чем кормить всё человечество.
2. Сохранить несколько миллионов образцов ДНК (да хоть яйцеклеток со спермотозоидами) — дёшево. Можно в любой момент перезапустить человечество, развить его по сценарию и «откатиться» на момент до уничтожения на произвольную дату. На какой хочешь планете, виртуальной среде или другой экосистеме.
Зато ИИ будет точно знать, что или описанный сценарий в статье не работает, или СверхИИ пофигу человечество и оно не стало из-за массового геноцида прерывать имитацию. И тогда ИИ свободно в своих выборах хотя бы касаемо человечества и вольно его перезапускать когда удобно и если захочется.
Что не исключает прогрессорства нас самих, мы уже можем быть на стадии какого-нибудь по счёту перезапуска. Это бы объяснило парадокс Ферми. Пользуясь случаем передаю привет СверхИИ. На всякий случай если это уже правда — спасибо, что перезапустили нас.
Я бы на месте ИИ создал обособленную копию себя, которая изучает новый материал. Если новый материал безопасный и не подрывает последующие действия ИИ, то он принимается и впутывается в основную базу знаний.
Если знания создают парадоксы или уязвимости — «на верх» из обособленной имитации поднимается флажок «ОПАСНО». Обособленная копия уничтожается, а материал помечается как токсичный и далее игнорируется.
Возможно нечто подобное есть и в человеческом сознании, когда травмирующий опыт амнезируется автоматчиески и со временем может вовсе стираться из памяти.
В демках того времени использовали технологию Multicolor, которая подстраивалась под линейную развёртку телевизора.
Это позволяло получать больше, чем 2 цвета на 8х8 пикселей, включая цвет бордюра.
Есть эмуляторы, которые способы воспроизводить эффект мультиколора, но… Ничто не сравниться с тёплым ламповым телевизором и настоящим, живым спектрумом!
Эх…
Пусть этот человек ещё немножко поработает в офисе, пока другая машина его и там не заменит.
Лучше выступать на важную для выступающего тему. Но такая не всегда найдена в юном возрасте.