Pull to refresh
10
0
Send message

Я его смотрел, когда он вышел, поэтому помню плоховато, но он всё-таки скорее пост-киберпанк. Нет характерных признаков киберпанка. А именно, "кибер" в наличии, но очень мало "панка".

Я преподаю информатику на первом курсе института (Москва). И могу сказать, что не хватает фундаментальных знаний, в результате я семестр трачу на разбор таких вещей как системы счисления, двоичная знаковая арифметика, IEEE 754, основы теории алгоритмов, основные структуры данных, алгебра логики, логические схемы, основы теории информации Шеннона, вот это вот всё. На мой взгляд это всё должно быть в школьной программе, но по факту у многих (больше половины) по этим темам пробелы или недопонимание, если судить по результатам контрольных работ. И это специальность на которую надо сдавать ЕГЭ по информатике.

Отдельно отмечу, что фундамент особо не менялся по крайней мере последние лет 50, поэтому особой проблемы с устареванием нет. Устаревают технологии, но чтобы эффективно использовать технологии, хорошо бы знать теоретические основы, на которых они построены. А иначе какая-то магия получается. Если знать основы, то выучить новый язык или фреймворк не великая проблема. Я считаю, что гнаться за технологией в школе бессмысленно - всё равно не угнаться. А вот нормально заложить основы очень даже можно, но этого почему-то не происходит.

Ахо, Ульман, Сети "Компиляторы. Принципы, технологии и инструментарий.", второе издание, раздел 3.7.1

Или можете мой конспект посмотреть. Там правда нет одного важного момента: по приведённому алгоритму ДКА не обязательно оптимальный, нужно как минимум объединять эквивалентные состояния; у Ахо ещё приведены алгоритмы прямого построения ДКА (без НКА) и оптимизации ДКА (раздел 3.9)

Теорию автоматов Вы судя по всему не очень знаете? ДКА равномощен НКА. Регулярные выражения можно матчить без бэктрекинга (пока они именно регулярные, без рекурсивных бэкреференсов, и даже с ними не всё так плохо). Другой вопрос, что преобразование НКА в ДКА не самая "дешёвая" операция, и если регулярку предполагается использовать полтора раза, оно того не стоит. Но учитывая что Вы компиляете с оптимизацией, что уже не супер быстро, как раз кажется актуально выжать максимум производительности.

Я не очень вчитывался в код, но похоже тут недетерминированный конечный автомат моделируется на стеке вызовов? Если уж компилять, то может есть смысл привести к детерминированному автомату? У него скорость матчинга линейная, а у нка с бэктрекингом потенциально квадратичная.

1. Жевать вы им не можете.

Могу. И жую.

2. Протез на него не поставите.

При нужде - поставлю

3. Нормально запломбировать каналы в нём сложно или невозможно.

Уже запломбировал. Насколько нормально вопрос дискуссионный, но функция (жевательная) на месте и зуб живой.

Ну и так далее. Даже 4й пункт неверный, у меня первый нижний моляр раньше начал гнить чем последний третий вылез.

Может не стоит так повально обобщать?

Во-вторых, так сложилось исторически, что IPv6 позволяет записывать последние 32 байта адреса в виде dotted quad.

32 бита может быть? А то в 32 октета два ipv6 влезет.

mDNS никто не отменял… поверх zerotier он нормально работает.

Я пробовал и то и то, остановился на zerotier. Функциональность примерно одинаковая, но zerotier работает на l2, как следствие ему не нужны страшные правила в iptables. А tsilscale работает на l3, потому что wireguard. Он довольно неаккуратно пытается настраивать файрвол и если правила уже нетривиальные (напр. сервер с кучей частично изолированных, частично взаимозависимых контейнеров и несколькими аплинками до кучи) шанс что что-нибудь сломается по моему опыту велик. Обратная сторона что у zerotier теоретически хуже криптография, но это не точно.

Интуитивно понятно: причина в том, что все временные значения для каждого уровня рекурсии хранятся в памяти отдельно, тогда как замыкание каждый раз обновляет одни и те же переменные.

Автору нельзя доверять своей интуиции. В алгоритме "с замыканиями" у него очевидно линейная сложность, хотя при чём тут замыкания, это обычный итеративный алгоритм. А в рекурсивном сложность пропорциональна числу Фибоначчи, т.е. экспоненциальная, О(φ^n). Непонятно чего автор кандидат, надеюсь не compsci, но анализу сложности рекурсивных алгоритмов я учу первокурсников. Причём написать линейный рекурсивный алгоритм для Фибоначчи совсем даже не сложно, он абсолютно такой же как итеративный (потому что хвостовая рекурсия)

Некропост, но. Списывание у соседа — это технически плагиат и это не ок, да. Но в условиях экзамена оно невозможно (вопросы разные). А "списывание" с конспекта (шпаргалки) — никак не может быть плагиатом. По определению. Как и использование справочного материала. И к academic misconduct никаким образом не относится.


А если мне на устном экзамене verbatim начинают мои же конспекты моих лекций цитировать (которые конечно же есть в Интернете), я тут же начинаю задавать уточняющие вопросы и они сразу всё ставят на свои места.

Немного некропост, но утверждение, что способ перечисления задан (конечной) формулой, никак не обосновано. Если Вы не спорите с непрерывностью числовой прямой, то неизбежно на ней есть числа, для которых нет конечных формул в любой аксиоматической системе с конечным алфавитом (старый добрый принцип "а что между ними"). А если формулы или алфавит бесконечные, то множество представимых чисел несчётно по диагональному аргументу Кантора.


То, что выбор другого набора аксиом даст другие конечно представимые числа, не означает, что число таких наборов аксиом счётно. Даже если Вы докажете обратное, из этого не следует, что множество всех конечно представимых чисел во всех аксиоматических базисах счётно. Более того, если положить что множества конечно представимых чисел в каждом конкретном аксиоматическом базисе счётные, и множество всех аксиоматических базисов счётно, объединение всех конечно представимых чисел во всех аксиоматических базисах навскидку счётным не будет, просто потому что объединение бесконечного счётного числа бесконечных счётных множеств подозрительно напоминает всё тот же пресловутый диагональный аргумент.

Большинство действительных чисел не соответствуют никакой формуле, их можно определить только перечислением всех цифр (которых возможно бесконечно много) в их представлении в какой-то системе счисления (как минимум такого способа пока не придумано). Это прямо следует из свойств действительных чисел. То что примеры нельзя записать за конечное время не значит что их нет — логически их существование неизбежно.

Посмотрел в код. Стало грустненько. Что только люди ни делают лишь бы не думать про формальные грамматики. Нy ладно, допустим рекурсивный спуск тоже имеет право на жизнь. Но обязательно было так перемешивать лексический и синтаксический анализ?

Я как иногда преподаватель наполставочки никак не пойму зачем собственно вся эта свистопляска с "ой как бы они не списали". Сколько помню, всегда студенты пользовались шпаргалками. И я никогда особо не обращал на это внимания. Ну может память у кого не очень. Если экзамен устный, то любой уточняющий вопрос при ответе сразу ставит всё на свои места. Если письменный — задачи никто не отменял, их "за просто так" списать неоткуда. Может рассуждаю как технарь и гуманитариям это более актуально.

она фальсифицируема

Мне неизвестен никакой потенциально реализуемый эксперимент, который бы отличил интерпретацию Эверетта от любой другой (из общепринятых).


Ваше утверждение касательно нелинейной эволюции квантовой системы не выдерживает критики. Волновая функция ненаблюдаема. Наблюдаемы только следствия. И способа "заглянуть" в соседние "миры" по Эверетту — нет даже теоретически. Либо я Вас не понял, тогда опишите эксперимент, различающий скажем многомировую и копенгагенскую интерпретации.


Но есть и теория мультивселенной тоже.

В лучшем случае гипотеза, не теория. И на самом деле тысячи их. Поэтому возражение по-прежнему в силе.

Они не на графы натягивается, по-видимому, а на явные и неявные требования, которые накладываются на это вычисление на графах. В частности на нондетерменизм и на причинно-следственные связи. Ну и в качестве уточнения, из статьи никак не следует, что получаются ОТО и КМ, только "что-то похожее на ОТО и КМ".

Из контекста ветки никак не следует, что "лямбда" это космологическая постоянная, поскольку в ветке речь об анизотропии. Теорема Нётер тёмной энергией не отменяется, поэтому продолжение тоже не очевидно как связано с космологической постоянной.


Касательно постоянной Хаббла, разногласия в её измерении к анизотропии прямого отношения всё-таки не имеют.


Мегаструктуры противоречат не изотропии (независимости от направления), а однородности (независимости от координаты). И в целом консенсус пока в том, что однородности на больших масштабах они тоже не противоречат (по результатам моделирования).


За ссылку спасибо, прочитал с интересом. Но в свете разногласий в измерении постоянной Хаббла разными методами, рассуждения авторов об анизотропии постоянной Хаббла выглядят несколько преждевременными. Кажется, что пока с определённостью можно сказать только что обнаружена (4σ) феноменальная анизотропия светимости галактических кластеров в рентгене. Это важно, но насколько прямо оно связано с фундаментальной космологией — пока не вполне ясно.


Суть моего вопроса в том, что ув. vanxant выше довольно категорично высказывается в ключе "где вы видели изотропное пространство". Я конечно не астрофизик, у меня специализация другая. Но немного я всё-таки "в теме", и причины, побудившие vanxant столь категорично заявлять об анизотропии пространства, как об общеизвестном факте, мне не ясны. Решил спросить, может я чего-то не знаю.

Да, забыл уточнить. Почему модель Вольфрама выглядит как Тьюринг-полная абстрактная вычислительная машина — потому что по сути это нормальный алгоритм Маркова на алфавите отношений.

Information

Rating
Does not participate
Date of birth
Registered
Activity