Pull to refresh

Comments 166

Но на самом деле формула Шеннона ясно показывает: чем больше в сообщении информации, тем более оно бессистемно.

чем же тогда информация отличается от шума? У вас получается что записанный шум будет самым информативным сообщением.

Так и есть, максимум информации содержит белый шум, потому что все его биты случайны. А то, что мы подразумеваем под содержанием или смыслом сообщения, в теории информации оценивается как избыточность.

что-то про избыточность совсем подозрительно, избыточность можно совершенно убрать, насколько я помню, смысл от этого не пропадет, даже не изменится.

Именно так и работают архиваторы. Текст (избыточный) превращают в белый шум. Количество информации остаётся прежним, но размер уменьшается.

так это в обе стороны работает, вроде бы, избыточность можно и добавить, но в качестве алфавита использовать шумоподобные сигналы.

При использовании "шумоподобного сигнала" в качестве алфавита, количество информации растёт. Кто знает, как сгенерирован этот "шум" - может это другое зашифрованное сообщение. А может, это данные с аппаратного генератора шума, и тогда в этом шуме - информация о физическом процессе, происходящем на датчике.

чем же тогда информация отличается от шума?

Ничем. "Красота в глазах смотрящего", а отличие шума от сигнала-в структуре приёмника. Оптимальный сигнал для несогласованного приёмника от белого шума неотличим. 42.

Копенгагенцы продолжают вариться в закрытом котле в своих миазмах и отходы жизнедеятельности, да хоть ещё 100 лет будут вариться, им там удобно и не дует. Закрытый котёл это — закрытая система которую они сами же выдумали сказав —вот наши кванты биты, а ничего мельче них нет, скрытых параметров нет, ничего нету.

Автор постоянно выдаёт этот примитив за устройство мира

мне кажется в каких-то случаях различать все-таки надо данные и информацию, например:

то что вам расказали о красоте картины "девятый вал", и впечатление от картины когда вы на нее действительно смотрите...

Что-то будет данными, а что-то информацией, мне кажется иногда это полезно различать.

мне кажется иногда это полезно различать

В науке не различают, потому что никто не придумал критерий. Попробуйте предложить критерий, который можно было бы применить формально, чтобы разные люди пришли к одинаковому результату.

Попробуйте предложить критерий, который можно было бы применить формально, чтобы разные люди пришли к одинаковому результату.

разные люди...

в каком-то старом кино кто-то сказал: "В науке большинством голосов не решают! Неучей всегда больше."

Дак я и говорю, что нужен научный, воспроизводимый подход.
Как 2+2=4 получается у всех, так и по вашему критерию должно быть чётко понятно, что есть "данные", а что "информация", без субъективного фактора.

если взять например цифровую связь, безотносительно носителя, то там передаются данные, какой-то дополнительный термин, такой как "информация" не нужен там, насколько я помню. То есть данные вполне можно обзывать-именовать информацией, нет смысла различать одно от другого (но возможно я что-то забыл, и меня кто-нибудь поправит).

Поэтому, вроде как и в общем-целом, нет смысла различать информацию и данные в рамках теории цифровой связи, опять же, насколько я все это помню.

Вот когда кто-то нам скажет зачем нам различать информацию и данные, критерий сформулировать не будет проблемой, я в это искренне верю.

Я много раз писал уже, что определения даются с какой-то целью, поэтому прежде чем давать определения надо иметь перед глазами эту цель.

В бытовом практическом смысле из данных (например, статистических) извлекают полезную информацию (выявляют закономерности, делают какие-то выводы).

Также в компьютерных науках пакеты данных содержат служебную информацию (заголовки, контрольные суммы) и пользовательскую (например, текстовое сообщение).

Выходит, информация - это своего рода смысловой или структурный экстракт из данных. То есть данные - "нефизический носитель" информации, характеризующийся способом её представления для дальнейшей интерпретации. Конечно, определения не совсем чёткие и строгие, но хотя бы такие.

Конечно, определения не совсем чёткие и строгие, но хотя бы такие.

это как-будто ответ какого-то сыночка учительницы, любимого:

не важно что он отвечает, главное что всегда отвечает.

Сможете сформулировать точнее - с интересом изучу вашу версию!

я ниже что-то сформулировал, или вы о чем спрашиваете? Что сформулировать точнее?

Насколько понял из комментария ниже, у вас возникли затруднения в различении терминов информации и данных.

Нет, у меня не возникло затруднений, и даже вы мне нашли подтверждение моих выводов. Я придерживаюсь мнения которое дано по вашей ссылке:

ясные определения приведены на википедии: информация

там написано:

академик Н. Н. Моисеев даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации

я согласен с академиком.

Спорить не стану, ведь мы сами наполняем слова смыслом, превращая их в понятия, и некоторые понятия действительно выходят широкими.

Но в контексте беседы всё же соглашусь с мнением, что

... в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.

Просто если бы оба термина были полностью тождественны, то имело бы смысл оставить лишь одно слово, чтобы не вносить избыточность в речь и техническую терминологию.

Случается, конечно, что по сути один термин, обозначают разными словами, но такое обычно складывается исторически, например, при заимствовании слов из других языков или сфер деятельности.

В догонку можно ещё рассмотреть устойчивые выражения и обороты речи из разных областей:

  • структуры данных (коллекции, словари, очереди, стек)

  • паспортные данные

  • информировать

  • данность

В обиходе данные и информация являются взаимозаменяемыми синонимичными словами, но при более строгом употреблении данные предполагают структуру и способ кодирования информации (форму представления), а информация - это уже сами сведения и знания, которые закодированы в данных.

На мой взгляд, довольно ясные определения приведены на википедии: информация и данные.

Пример:
имя человека - информация
в каком-то виде записанное имя (кирилицей, латиницей, в разных формах имени) - текстовые данные
как-то произнесённое имя и сохранённое в аудиофайл - аудиоданные

В тривиальном случае данные предпологают единственную интерпретацию, но в зависимости от контекста порой могут допускать и множественность интерпретаций, то есть приобретать свойства голографичности.

Например, в речи одно и то же слово или выражение (текстовые данные) может иметь несколько смысловых значений в различных ситуациях употребления, что напоминает голографические наклейки и картинки, где цвет частей изображений или даже целиком изображения зависят от угла рассмотрения (контекста).

Интересно, что при искажении (например, сжатии с потерями) или повреждении (невнятное произношение) данные тоже могут приобретать голографическую многозначность, например, имя
В***
может быть интерпретировано в разном контексте множетвом образом
Вася, Ваня, Вова, Витя, Вита, Валя, Вика

Но если при этом у нас есть дополнительная информация, например, что имя женское или частичные уточнения по нечитаемым буквам, то число вариантов интерпретации сокращается.

А ещё данные могут кодировать информацию мнемонически многомерно (послойно и даже фрактально), например, в предложении
Каждый Охотник Желает Знать, Где Сидит Фазан
помимо достаточно банальной информации об охотниках закодирован порядок цветов радуги, но если об этой особенности не знать заранее, то считать более глубинную информацию сразу и не выйдет.

Это словно кодовые фразы (ключи, звоночки, знаки), которые для рядового человека звучат весьма обыденно, но вот для знающего несут некую скрытую информацию, иногда весьма ценную. Чаще всего это можно встретить в профессиональном жаргоне, играх, для конспирации, распространено в творчестве!

Другими словами, когда человек проходит некоторую ступень инициации (например, профессиональной), жизненный этап, поворотное событие, значимое переживание, то для него словно открывается новый слой знаков и символов, которым ранее он не придавал такого значения, а теперь они наполняются новым смыслом и глубиной.

Вот когда кто-то нам скажет зачем нам различать информацию и данные

Это была ваша идея:

Что-то будет данными, а что-то информацией, мне кажется иногда это полезно различать.

Это была ваша идея:

ну да это была моя идея, или, я бы сказал, гипотеза, но когда мы вспомнили про "научный, воспроизводимый подход", я эту гипотезу опроверг в рамках науки или наук о принципах цифровой передачи данных.

Для бытового употребления можно попытаться придумать что-то типа того, что информацией являются данные которые "информируют" систему или человека, но это тоже не выдерживает критики, так как данные служат тем же целям информирования систем или человека, по крайней мере в некотором смысле.

то есть у меня не получается найти разницу между данными и информацией и я прихожу к выводу что ее нет. Я признаю свою ошибку в изначальном утверждении об обратном.

По моему не очень умно было бы с моей стороны продолжать искать разницу там где ее нет и настаивать на этом поиске.

Более того, я уверен, что если такая разница все таки где-то есть и важна(!), когда мы дойдем до этой области или уровня знаний где она важна, нам ни сколько не помешает то что сейчас (на текущем уровне) мы отказались эту разницу искать!

Пару слов о Демоне Максвелла. В принципе, таковым является любая граница раздела жидкость-пар. Потенциальный барьер с одной стороны которого быстрые молекулы, а с другой - медленные. Вероятнее всего любой барьер (ака область простанства-времени, где происходит разделение частиц/квантов по энергии) обладает свойством Демона Максвелла.

Демон не должен пропускать молекулы со стороны пара в жидкость. Граница раздела сама по себе таким свойством не обладает. Быстрая молекула в состоянии проникнуть в воду из пара.

Соглашусь с этим замечанием. Но это непринципально.

Рассмотрим замкнутый сосуд, в котором установилось равновесие пар-жидкость. И в один прекрасный момент введем непроницаемую перегородку по зеркалу жидкости. Что изменится?

А если сосуд будет открыт со стороны пара, то часть "быстрых" молекул будет улетать на бесконечность. Что автоматически снимет это условие.

Представим себе другой опыт.

Мы берем и швыряем камни в небо. Если у камня достаточная скорость, то он не возвращается. Можно себе вообразить, что где-то там, за облаками, сидит чувак, возможно с рогами и шторкой, и занимается селекцией наших камней по скорости. Быстрые - пропускает, медленные возвращает. Правда, иногда тоже швыряется быстрыми камнями, но гораздо реже, чем мы.

Правда, иногда тоже швыряется быстрыми камнями, но гораздо реже, чем мы

Вот вы и сами написали, в чём проблема вашего примера. У "чувака на небе" потенциально камней побольше, чем на нашей планете. Мы выкинем наружу все быстрые камни, и у нас ничего не останется. Будем сидеть миллиард лет, ничего не выбрасывая. А за это время что-нибудь, да прилетит обратно, нарушив построенный фильтр.

Рассмотрим замкнутый сосуд, в котором установилось равновесие пар-жидкость. И в один прекрасный момент введем непроницаемую перегородку по зеркалу жидкости. Что изменится?

Не будет обмена молекулами, очевидно. Демон в таких условиях не сможет работать, ведь он регулирует обмен, а вы его вовсе прекратили.

А если сосуд будет открыт со стороны пара, то часть "быстрых" молекул будет улетать на бесконечность. Что автоматически снимет это условие.

О каком условии речь?

То, что вы описываете, вообще не подходит под изначальные условия работы демона.

Кроме наличия границы раздела жидкость-пар должна быть еще и гравитация, и фазовый переход, чтобы жидкость покоилась в одной части сосуда, а пар был в другой. И да, гравитация может быть таким демоном, правда, очень неэффективным в случае вода-пар и более эффективным в случае осаждения частиц взвеси в воде...

информация имеет массу;

Информация не имеет массу! Информация имеет стоимость оперирования с ней, выражаемую в затрачиваемой энергии на стирание одного бита. Если вы возмете условный носитель, измерите его массу, потом передадите его своему другу, а друг запишет на этот носитель газиллион бит информации и вернет его вам, то масса этого носителя для вас останется неизменной. А вот ваш друг потеряет в массе и эта разница перейдет в тепло необходимое для уничтожение газиллионов бит информации. Отсюда вывод - владение информацией имеет свою стоимость, пропорциональную обьему этой информации.

Сообщение можно сжать до repeat (0), значит, количество информации равно всего 1 бит.

Тут требуется уточнение. В сообщении всего 1 бит полезной информации. Для записи (или передачи) сжатого предствления сообщения из 50-ти нулей потребуется еще некоторое количество служебной информации, а именно - 6 бит. Итого, в сообщении 7 бит информации.

Принцип Ландауэра иногда трактуется как принцип эквивалентности информации, энергии и массы - пропорциональных физических величин. Понятно, что эту массу информации нельзя напрямую взвесить - это что-то вроде релятивистской массы, как раньше называли энергию фотонов. Хотя физически каждому биту информации соответствует определённое количество электронов в транзисторах, и у них уже есть реальная масса, измеряемая. Но в принципе да, чтобы различать эти две массы, можно первую из них называть стоимостью.

С электронами в транзисторах тоже не очень удачный пример, число электронов не меняется, меняется проводимость (двигуются они или нет). В магнитных носителях (HDD) тоже число электронов не меняется, а меняется направление магнитного диполя. В общем, информация не материальна и массы не имеет, но обращение с ней требует затрат энергии. В этом, как я понимаю, и состоит принцип Ландауэра.

По этому поводу возникает интересный философский вопрос. Если при уничтожении бита информации требуется затратить энергию, то нет ли обратного процесса ?

И еще. Где-то читал, что в "черных дырах" происходит полное уничтожение информации, а значит на это расходуется огромного количество энергии, откуда она берется и во что превращается ?

По этому поводу возникает интересный философский вопрос. Если при уничтожении бита информации требуется затратить энергию, то нет ли обратного процесса ?

По крайней мере, насколько мне известно, в современной классической научной картине мира обратный процесс не описан, но известны начала термодинамики, которые из ныне доступных людям эмпирических наблюдений накладывают ограничения на возможность протекания подобных физических процессов.

Если при уничтожении бита информации требуется затратить энергию, то нет ли обратного процесса ?

Законы сохранения запрещают создание или уничтожение энергии или информации, они просто переходят из одной формы в другую. В данном случае информация о макросостоянии носителя (транзистора) переходит в информацию о микросостояниях молекул воздуха (теплоту). Обратный процесс извлечения информации из хаотичного движения молекул возможен, но потребует затратить ещё больше энергии.

в "черных дырах" происходит полное уничтожение информации, а значит на это расходуется огромного количество энергии, откуда она берется и во что превращается ?

То же самое происходит и в чёрных дырах: информация о макросостоянии падающих туда предметов превращается в информацию о микросостояниях теплового излучения Хокинга при испарении чёрной дыры. Каким образом эта информация сохраняется - вопрос сложный, но отчасти ответ на него даёт голографический принцип.

Давайте рассмотрим систему оповещения с помощью костров. Некоторое событие (пришел враг, например) вызывает состояние "костер горит" в точке 0. Это состояние посредством наблюдателя в точке 1 также приведет к включению состояния "костер горит" в точке 1. Точек может быть N.

Как вы можете описать такую систему в терминах вашей теории? Какие у системы атрибуты, которые можно инвертировать и скопировать? Будет ли это прежняя физическая система или возникнет новая система?

Система состоит из N точек, каждая из которых является носителем 1 бита информации. У точки два состояния: "не горит" и "горит", одно можно превратить в другое - операция инверсии. Состояние одной точки передаётся по цепочке следующей точке, но при этом сохраняется в исходной - операция копирования. Горят костры или не горят - неважно, система остаётся источником информации, несущим получателю 1 бит.

Спасибо.

В отличие от лампочки костер сгорает необратимо. Вы не стали отвечать на мой вопрос: " Будет ли это прежняя физическая система или возникнет новая система?" Очевидно, нужно будет сложить новый костер. Кроме того, неотъемлемой частью системы является дежурный у костра, без него костер не загорится. Система получается одноразовой. Вас это не смущает?

Если к каждому костру обеспечить подвоз энергии (дров), система может работать бесконечно, пока дрова не закончатся. Если поставить умный датчик, который обнаружит вдалеке дым, и включит розжиг, то и дежурный не нужен.

Только это будет уже совсем другая система. Смысл сигнальных костров - подать сигнал один раз. После этого дежурный или убегает, или идет биться с врагом. Так что "копирование" в другой точке тут возможно только одного состояния: "костер горит". Автор же утверждает, что состояние в исходной точке и в последующих сохраняется.

Состояние "костёр не горит" тоже копируется, причём многоразово. А копирование состояния "костёр горит" может быть и одноразовым, это не исключает передачу информации. Как раз необратимость и является признаком, что это классическая система. Вот если бы костёр затухал от того, что его увидели в соседней точке - тогда это была бы уже квантовая информация.

Хорошая попытка осмыслить термин "информация", но она не засчитана. Во-первых статья динна, туманна, и насыщена нигде не определёнными и весьма расплывчатыми терминам вроде "знания", "смысл".

Во-вторых не нужно столько букв чтобы дать это определение: "информация – это набор атрибутов физической системы, которые можно инвертировать и копировать". Но здесь опять мы видим не определённые термины: "атрибут", "система", "инвертировать". Остановите 5 человек на улице и спросите что они значат. Каждый ответит по-разному. Таким образом, определение не достаточно точно.

Позволю дать следующее определение термину "информация": "информация - это образ (отображение) предмета, сохранённое другим предметом при взаимодействии". Примеры: человек прошёл по песку, и следы составляют "информацию" об этом процессе; при столкновении двух автомобилей, каждый из них сохранил "информацию" о другом, а так же о ходе процесса взаимодействия.

Замечу, что все примеры, что Вы привели, попадут под данное определение.

Далее, из определении мы видим что "информация" не существует без носителя "информации", и мы понимаем, что данными носителями выступают предметы, участвующие во взаимодействии (процессе "обмена" "информацией").

Кроме того, Вы путаете понятия "информация" и "код" (кодирование) информации. Любой предмет можно отобразить произвольным предметом. Например, условимся, что предметы быта, а именно тумбочка, стул, стол, ботинок - означают, соответственно звуки, соответствующие нотам "до" "ре" "ми" "фа". Пусть я повзаимодействовал с набором предметов у себя дома и выстроил ими конструкцию "тумбочка" "тумбочка" "стул" "стул" "стол" "стол" "ботинок" "стол" "стол" "стул" "стул" "тумбочка" "тумбочка" "тумбочка". Инструменталисты-народники (баян, аккордеон) сразу узнают и почувствуют "в ушах" мелодию "как под грокой под горой", пользуемую для распевок ( http://www.t-korneva.ru/other/lessons/1-class/2-uncategorised/244-kak-pod-gorkoj ).

Отсюда вывод: информацю (использую язык математики) можно передать любыми (то есть произольно взятыми) предметами (например, звуками, символами, столами либо ботинками) с точностью до "биекции" ( https://ru.wikipedia.org/wiki/Биекция ) либо, в общем случае, до "изоморфизма" ( https://ru.wikipedia.org/wiki/Изоморфизм ) .

Понятно, что стул, стол, ботинок, можно (с точностью до биекции) заменить знаками 0, 1, 2 (либо буквами, а,б,в) либо символами "азбуки морзе" либо звуками, и ничего не поменяется (поясню опять же языком математики: "инвариант сохранится").

PS Подводя итог данному "спичу" замечу: краткость - сестра таланта, а ясность - его вторая сестра. По-моему, утверждение достаточно обоснованное.

Далее, из определении мы видим что "информация" не существует без
носителя "информации", и мы понимаем, что данными носителями выступают
предметы, участвующие во взаимодействии (процессе "обмена"
"информацией").

Добавлю, что информация не существует без интерпретатора. Следы на песке несут информацию только для человека, для камня лежащего рядом они никакой информации не несут. Таким образом, для существования информации требуется: передатчик (источник образа), носитель (медиа) и приемник (интерпретатор). И тут возникает еще один интересный вопрос: что такое интерпретатор ? Почем человек или вычислительная машина могут быть интепретатором, а камень - нет. Какими минимальными свойствами должен обладать обьект, чтобы он мог оперерировать информацией (интерпретировать её).

>>информация не существует без интерпретатора

Это смотря как её определить. Например, в моём определении выше "информация" - это свойство материи, такое же как масса. А интерпретировать его либо нет, в каких случаях это следует делать и как - это вопрос отдельный.

Что до классификации "информации", то это можно делать, к примеру, по признаку пользы её либо нет. Например, мне абсолютно индифферентно, что там происходит в этих "чёрных дырах", либо как "искривляется" "пространство-время". А кто-то вздыхает, ворочается, не может без этого заснуть. А вот прочтёт он, к примеру, что всё с "чёрными дырами" и СТО в порядке, ложится тогда и спокойно засыпает.

информация - это образ (отображение) предмета, сохранённое другим предметом при взаимодействии

Ваше определение согласуется с моим, но оно как раз менее точное, поскольку А) классическая информация должна сохранятся на исходном носителе и Б) локальное взаимодействие в принципе необязательно, информация может передаваться даже контрфактическим способом. Да и понятия "отображение", "сохранение" и "предмет" определить не проще, чем "атрибут", "система", "инвертировать".

Перечисленные вами предметы быта - это такие же символы, как и ноты, и они тоже являются кодом. А то, что они отображают - это последовательность звуковых волн определённых частот, которые можно воспроизвести на разных инструментах. Всё это - просто разные способы кодирования одной и той же информации - музыки, пригодные для обработки разными приёмниками (глазами, ушами, микрофоном, камерой и т.д.). Они все избыточны, потому что в чистом виде информация будет выглядеть как случайная последовательность битов и не будет читаться.

Вы мне симпатичны тем, что в отличие от многих, пытаетесь осмыслить слова которые слышите, и построить философскую систему. В то же время обсуждение здесь подобных вещей приносит более вреда, чем пользы: по известному, не счастливому стечению обстоятельств, подобные темы привлекают личностей, которые не освоили даже программу по линейной алгебре для студентов 2-го курса математических университетов, но в то же время, несомненно, разбираются в теориях "черных дыр", атомных и субатомных частиц, и во всём, связнном с "энергией" и особенно с "времением" и "искривлением пространства".

Отсюда, полагаю, обсуждение подобных тем врядли что-то сможет (мне) дать, помомо, конечно, репутационных и временных издержек.

А Вам - удачи в поисках истины!

информация - это образ (отображение) предмета, сохранённое другим предметом при взаимодействии

Утилитарное определение, которое не позволяет информации быть абстрактной.
Например, "лекция начнётся в 15:00" - это не информация. А вот "на стене написано, что лекция начнётся в 15:00" - это информация. Как-то контр-интуитивно.

Где же это абстрактное, если вы не можете абстрактно сказать "я получил информацию, что лекция начнётся в 15:00", не указывая её носитель. Эта абстракция вынуждена в вашей терминологии иметь другие названия, например, "знания", "сведения", или что-то ещё. Но ваше определение запрещает называть это "информацией".

Пользуясь случаем, разрешите предостеречь Вас и о рисках употребления "заклинаний" вроде "демон Максвелла", "парадокс близнецов" и других предметов из так называемых "высоких материй". На них падки скорые на "сенсации" журналисты, но жонглирования подобными "высокими материями" производит не благоприятное впечатления на чуть владеющих темой физиков.

Для примера рассмотрим т.н. "демон Максвелла". Этим "будоражущим умы" понятием от 1867 года - то есть за 64 года до изобретения электроного микроскопа (1931 — Р. Руденберг получил патент; в 1932 году М. Кнолль и Эрнст Руска построили первый прототип современного прибора) высказано лишь предположение что на 1867 год не известно устройство, которое, если им перегородить баллон с газом по серёдке (и ни к каким иным формам преобразования энергии это не относится), оставляло бы в камере "слева" частицы газа со скоростями равными А (либо ниже), а в камере "справа", частицы - со скоростями не равными А (либо выше). Вопросы:

а) какой физический закон запрещает создать мембрану, например, в форме кристалличской решётки какого-нибудь химического композитного многослоевого соединения, обладающую способностью пропускать с одной стороны частицы со скоростью не равной А, и не пропускать их в другую сторону? (с учётом того, что 92 года то есть +156 лет от гипотезы Максвелла, мы имеем возможность наблюдать и исследовать химические соединения размером с субатом). Как видно, в этом случае никаких трат энергии на механическое открытие/закрытие "затвора" не нужно, равно как и знания информации о скоростях частиц "слева" от мембраны и "справа"

б) вы убеждены, что подобные исследования нигде не ведутся?

в) нарушит ли данное устройство закон сохранения энергии? (подскажу: не нарушит - ибо если вы не выпустите эти частицы опять в камеру "слева", а потратите скорости частиц, например, на изменение геометрии какого-нибудь твёрдого тела - то есть переведёте накопленную энергию движения молекул газа в энергию связи атомов твёрдого тела, - то восполнить скорости частиц газа будет просто неоткуда (частицы просто их потеряют), таким образом, мы видим, что данное устройство не приводит к созданию "вечного" двигателя т.е. устройства "рождающего" энергию из "ничего").

PS Разрешите предположить почему подобные потрясающие умы обывателей "мысленные эксперименты" (что само по себе является оксюмороном), так популярны на страницах разного рода прессы. Людям нравятся сенсации, а журналистам нравится зарабатывать, развлекая публику. Nothing personal, just business, только и всего. Конечно, это размышение - ИМХО. Сохраняю за собой право на ошибку.

Предложенная вами мембрана - это и есть демон Максвелла, нарушающий второй закон термодинамики и позволяющий создать вечный двигатель второго рода. Мембрана может пропускать маленькие молекулы и не пропускать большие, но для определения их скорости она всё равно будет с ними взаимодействовать. Если мембрана не является сверхпроводником, она сама будет нагреваться при прохождении через неё молекул. И в любом случае придётся тратить энергию на её охлаждение.

>>она сама будет нагреваться при прохождении через неё молекул

Очень сомнительное утверждение: вот молекулы ведь "барабанят" по стенкам баллона с газом, а тот и не нагревается.

Нагревается, но очень слабо, потому что молекул мало и температура у них не высокая. А если они будут проходить через мембрану, да ещё и замеряющую скорости - обязательно замедлятся и отдадут часть энергии.

Вообще, если Демон Максвелла является частью замкнутой системы, то для своей работы он может забирать часть энергии у молекул в сосуде, а не извне, но при этом в итоге всё-таки их отсортировать. То есть, насколько понимаю, в одной части системы энтропия будет снижаться за счёт повышения в другой.

Подобный интересный эксперимент связан с гравитационным полем: наполним тёплым воздухом высокий сосуд и поместим в прохладное помещение. Сожержимое сосуда начнёт постепенно охлаждаться и отдавать энергию вовне (предположительно, повышать энтропию системы сосуд-помещение), однако внутри сосуда за счёт гравитации начнут образовываться конвекционные потоки, которые будут устремлять быстрые "тёплые" молекулы вверх, а медленные "холодные" вниз, в результате чего в какой-то момент времени внури сосуда наступит необходимое разделение. При этом система замкнута, но находится во внешнем гравитационном поле.

Интересно, что конвекционное разделение молекул газа будет происходить и в самом помещении, но средняя температура воздуха в помещении расти... И тут возникают вопросы:

  • энтропия помещения точно будет расти? Может, конвекционное разделение понижает энтропию быстрее, чем повышает нагрев?

  • если не прекращать эксперимент, то дождёмся ли мы в принципе наступления термодинамического равновесия за разумное время, вдруг сверху и снизу температура будет пусть и незначительно, но всегда отличаться?

  • как будет влиять и перераспределяться потенциальная энергия молекул газа в гравитационном поле?

Непонятных моментов много, но, возможно, это указывает на какую-то скрытую связь энтропии и поля (вместо гравитационного поля могут быть рассмотрены электромагнитное и газ из ионизированных молекул).

Если принимать в расчёт гравитацию, второй закон термодинамики работает вообще не так. Я писал об этом в предыдущей статье. Даже если гравитация будет достаточно сильной, чтобы повлиять на молекулы газа, в разделённом состоянии энтропия газа окажется выше, чем в перемешанном. Только скорее горячие молекулы окажутся внизу, а холодные - сверху. Такая конвекция газа или плазмы происходит в звёздах и газовых гигантах.

Благодарю, с большим интересом прочёл предыдущую статью! Всё здорово написано, но позволю себе позадовать вам "каверзные" вопросы... ;-)

Рассмотрим ведро с тёплой водой, которое выносят на мороз. Постепенно оно начинает охлаждаться и более прохладная вода устремляется вниз, а тёплая сохраняется ближе к центру. При дальнейшем остывании начинают образовываться кристаллики льда, которые скапливаются у поверхности и затягивают её ледяной корочкой, поскольку лёд легче воды.

Далее ёмкость начинает промерзать глубже и в какой-то момент наступает чёткое разделение лёд-вода. Ну, и в конце концов вся жидкость преходит в твёрдое агрегатное состояние.

Вопросы:

  • как меняется энтропия ведра с водой в процессе охлаждения и замерзания?

  • является ли разделение лёд-вода максвелловким?

  • каково перераспределение энергии между ведром и окружающей средой?

Чтож, атвечаю! Ведро на морозе - открытая система, её энтропия уменьшается естественным путём, температура уравновешивается за счёт нагрева воздуха. Молекулы воды отдают энергию стенкам ведра и встраиваются в кристаллическую структуру льда. Вода имеет высокую энтропию, разделение лёд-вода - среднюю, чистый лёд - низкую.

Но что если мы поставим ведро в достаточно изолированную морозильную камеру и отключим её от электропитания (замкнём систему)? Не станет ли связка морозильная камера плюс гравитация тем самым демоном Максвелла, который за счёт энергии самой воды в ведре выполняет разделение её молекул, уменьшая энтропию воды?

Демон не может быть холодным, он должен быть горячим! Он же уменьшает энтропию системы за счёт получения и запоминания информации о состоянии молекул. В вашем примере информация нигде не записывается, просто естественным путём устанавливается тепловое равновесие.

Очень сомнительное утверждение: вот молекулы ведь "барабанят" по стенкам баллона с газом, а тот и не нагревается.

Как это не нагревается? Очень даже нагревается. До средней температуры газа внутри.

Спасибо большое! С интересом прочёл публикацию!

~

То же самое происходит при переводе картинки из формата .bmp или .png в формат .jpg.

Хотя формат .jpg опционально поддерживает сжатие без потерь, зачастую его применяют именно для сжатия с потерями, и напротив формат .png поддерживает только сжатие без потерь. Возможно, в контексте рассказа об энтропийном сжатии более корректен буден перевод из формата .bmp в.png (либо .jpg, но в режиме без потерь).

~

Отметим ещё один важный факт: информация обладает массой.

Утверждение спорное по нескольким причинам:

  • в традиционном научном понимании масса - это свойство присущее определённым физическим объектам [причём, далеко не всем, например, безмассовый фотон обладает импульсом и энергией], которое проявляется при их гравитационном и механическом взаимодействии друг с другом. Информационный носитель - физический объект, но вот сама информация - уже что-то более близкое к математическим абстракциям, поэтому, возможно, не вполне корректно приписвать информации свойства массы, хотя при записи или стирании информации её носитель как-то может изменять свою массу, в зависимости от его реализации

  • согласно физической картине мира масса и энергия эквивалентны в том смысле, что масса может переходить в энергию и наоборот, однако фотон, обладая энергией, является частицей безмассовой, поэтому, насколько понимаю, гипотетически возможно построить носитель информации на основе состояний фотонов, который не будет менять свою массу при записи информации на него

Спасибо! Замечания приняты. Но с пониманием информации как математической абстракции не согласен. Теоретически её массу можно измерить по гравитационным эффектам, если записать огромное количество информации на очень компактный носитель. Но пока это вряд ли реализуемо на практике. А фотоны с высокой энергией уже сталкивали на коллайдерах и преобразовывали в массивные частицы. Есть даже фотонные квантовые компьютеры, но сколько они весят - не знаю.

Лежащая на весах монета содержит 1 бит информации, если ее перевернуть - масса не изменится, хотя 1 бит будет инвертирован.

В случае с монетой непонятно, какое её состояние принимать за 0, какое за 1. Может, это вы не стёрли информацию, а записали её в пустую ячейку. Да и на переворот монеты уйдёт гораздо больше энергии, чем содержится в одном бите.

Чем информация отличается от данных?

Цифровые данные - это информация, закодированная именно в состояниях электронных ячеек памяти, условных нулях и единицах, которые читаются компьютером. Но ту же информацию можно закодировать множеством других способов.

Я имею ввиду абстрактный термин "данные" и абстрактный термин "информация". Т.е. когда говорят "есть некие данные" и "есть некая информация".

Не вижу в информации или данных ничего абстрактного. Если они есть, значит они есть на каком-то физическом носителе: в памяти компьютера, на бумаге, в нейронах мозга и т.д.

Так в чем разница тогда? Данные это информация, информация это данные - я правильно понял?

Я хочу понять ваш смысл этого определения. Как минимум, чтобы понять почему по вашему информация имеет массу. Но если информация - это нечто, что хранится на физ. носителе, то о какой массе может идти речь?

Но чтобы обо всем этом говорить, сначало надо все таки попытаться формализовать определение через простые смыслы, иначе трактовка получается плавающая, т.е. зависящая от контекста, что для фундаментальной сущности недопустимо.

Данные - это именно оцифрованная информация, представленная в битах. А есть ещё неоцифрованная информация: тексты на бумаге, устная речь, музыка, нейронные связи мозга, расположение фигур на шахматной доске, сигнал светофора и т.д.

На каком бы носителе информация не хранилась, на её стирание требуется энергия, причём не меньше, чем установлено пределом Ландауэра. Масса информации - это сколько массы вещества нужно преобразовать в тепловую энергию, чтобы стереть один бит информации.

если вы запишите на листочке ваш вес и рост, а потом сожжете этот листочек, ваши вес и рост от этого не изменятся. Информацию нельзя уничтожить, уничтожив ее вторичный носитель, получается. Биты это всегда вторичный носитель, в природе битов не существует.

Формально скопированная информация - это уже другая информация, никак не влияющая на исходную. Когда рулетка и весы возвращаются на ноль, ваш рост и вес тоже не меняются. Но при стирании любой информации высвобождается энергия в виде тепла или шума - от разжимания пружины, например. Информация в принципе неуничтожима, просто она переходит в нечитаемую форму тепловых колебаний молекул.

Формально скопированная информация - это уже другая информация, никак не влияющая на исходную.

вы вроде как ввели новый термин "скопированная информация", и не определив его начинаете какую-то логигу строить с ним. Мне какжется это какая то ошибка построения логики рассуждений.

информация не существует в материальном мире, она из мира идей.

Это вы вводите новый термин "мир идей" для объяснения того, что вполне подчиняется законам материального мира. Я в самом определении информации указал копируемость как её неотъемлемое свойство.

философ не знает что такое мир идей?

что-то я совсем отстал от жизни, похоже.

Я не идеалист, но даже если верить, что материя вторична, не следует путать идеальное с физическим. Формула Шеннона - это идея. Понятие информации - это идея. А написанное здесь слово "информация" - это уже информация, передающая идею информации. Физически ему соответствуют биты в ячейках памяти на серверах Хабра. Слово "информация" можно записать на другом языке или на другом физическом носителе, но от этого его смысл не изменится. А самой идее информации не обязательно быть представленной физически, хотя я не верю в существование идей без того, что они обозначают. Пока мы не изобрели язык и не сформулировали определение информации, информация существовала физически, но такой идеи не было.

А самой идее информации не обязательно быть представленной физически, хотя я не верю в существование идей без того, что они обозначают.

Так можно договориться до того, что коммунизм реально существует. Есть же такая идея, значит она должна быть представлена физически, исходя из вашей логики.

Существует, но не в нашей вселенной:)

Данные - это именно оцифрованная информация, представленная в битах. 

Музыкальные ноты - это данные или информация? С одной стороны - это текст на бумаге (информация), с другой стороны - это оцифровка тона/ритма = музыки (данные).
Ок. У нас появилось новое понятие "оцифровка". Т.е. все что оцифрованно - это данные, а что нет - это информация, правильно понял?

На каком бы носителе информация не хранилась, на её стирание требуется энергия, причём не меньше, чем установлено пределом Ландауэра.

Хранение/нехранение не имеет отношения к определению информации.

Масса информации - это сколько массы вещества нужно преобразовать в тепловую энергию, чтобы стереть один бит информации.

Так информация же, по вашим словам, не оцифрована, откуда бит информации?

Данные - подмножество понятия "информация", один из её видов. Ноты на бумаге, звуковые волны, нейронные связи мозга, ячейки памяти компьютера - это разные носители одной и той же информации (музыки). Цифровыми данными являются только биты в памяти компьютера. Принцип Ландауэра распространяется на любые носители.

Данные - подмножество понятия "информация", один из её видов.

Допустим. Хотя я бы сказал, что данные - это "измеренная" информация.

Я так понимаю, отсутствие массы у информации вы приняли? ) Если нет, то обоснуйте, почему хранилище информации должно давать свойства определению информации.

Сразу вам пример на ваше определение массы информации:
Есть некое слово, пусть будет "информация". Одинаковы ли энергетические затраты на хранение/стирание этого слова в памяти мозга и на бумаге? Очевидно, что нет. Получается, что массы разные. Следовательно, масса не является свойством информации, т.к. зависит от хранилища.
Картошка имеет массу и от того, где ее хранить (без искажений), масса не меняется.

Ещё раз повторяю: масса информации - это минимальная масса вещества, которое нужно преобразовать в тепловую энергию, чтобы стереть один бит информации. Это константа, установленная принципом Ландауэра, предельный случай. Современные компьютеры выделяют при стирании бита информации намного больше тепла, мозг - ещё больше, ластик с бумагой - ещё больше и т.д.

Ещё раз повторяю: масса информации - это минимальная масса вещества, которое нужно преобразовать в тепловую энергию, чтобы стереть один бит информации.

Так я и говорю, что это бессмысленная характеристика, не имеющая смысла для информации. Масса человека - это минимальное количество мышьяка, требующееся для его уничитожения. Вот у вас такое же определение.
Тем более что у информации нет понятия битности. Это вы ввели такие характеристики. Так я и хочу показать, что они описывают что-то иное, но вы это называете - информация. В общем базовом определении "информации" не может быть битности и других сложных характеристик.
Битность означает жесткую дискретность, почему вы решили, что это не аналоговая величина с переходными процессами?

Измерять информацию в битах и килограммах придумал не я, а Шеннон и Ландауэр. Потому что это удобно и имеет физический смысл. Без теории информации мы бы до сих пор печатными машинками пользовались и письма почтой отправляли. О том, как измерить смысл и значение информации, у меня будет следующая статья.

Я понял, что вы говорите не о фундаментальном понятии, а о прикладном. Вопросов больше не имею )

Интересно-непоследовательная мысль :) (Моя, неправильная точка зрения)
(Парадокс - повод и причина для движения.)
Даже начиная с первого исследования: три бинарные последовательности, свалено в кучу всё, не учитывая то, что "информация" так и не определена даже по итогу.
Пример: итоговое значение первого бинарного сообщения на 50 бит не является адекватным отображением сообщения о том, что набор именно бит содержит только нули. Сообщение о том, что нужно выполнить функцию повтора на 50 позиций - никак не соответствует размеру в 0 бит... Дальше - больше.
Т.е. с чего начали - неопределённость, тем, по большому счёту и закончили.
Но было интересно, спасибо.

Вообще формулы Хартли и Шеннона определяют среднее количество информации (энтропии) на один символ сообщения, выдаваемого источником. На примере с тремя сообщениями я просто показал, что строка из нулей несёт один бит информации, а случайная последовательность - 50 битов. Если учитывать функцию повтора, это будет уже колмогоровская сложность. О ней я напишу в следующей статье.

Ну, такое.
Если строка A несёт 50 бит информации, и строка B - 50 бит, то вместе они несут 100. Вы не будете с этим спорить?

Вернёмся к вашему примеру
01110010100001010111001000000110100010111010111001
представим его в виде
01110010100001010111001 000000 110100010111010111001
Вы утверждали, что строка из нулей несёт 1 бит информации. Значит, в первой части не более 23 бит, далее идёт нулевая строка, несущая 1 бит, а за ней ещё строка на 21 бит. То есть, ваша случайная строка несёт не 50 бит, а только 45. Фокусы какие-то )))

Вот поэтому я и написал, что с учётом алгоритмов это будет уже колмогоровская сложность. Вы разбили строку на три части, потом сжали одну из них. На запись этих операций нужно больше памяти, чем на запись целой строки в 50 бит.

Ну а с чего вы взяли, что в строке из 50-ти нулей 1 бит информации?
Где у вас записана информация и том, что строка может быть целиком из нулей или единиц?

Там те же 50 бит. Комбинация 50 нулей равнозначна любой другой комбинации, если у нас нет какого-то априорного знания об источнике.

Равновероятна, но не равнозначна. В моём примере объём памяти изначально известен - 50 бит. Мы оценивали всю строку, уже готовую, по формуле Хартли. Вот когда общее число символов неизвестно, и мы считаем побитово, тогда можно вычислить условную энтропию по Шеннону: раз получили уже 49 нулей, то скорее всего и 50-м будет ноль.

раз получили уже 49 нулей, то скорее всего и 50-м будет ноль

Если я 3 раза подбросил монетку, и выпал орёл, на 4-й раз тоже вероятнее будет он?

Нет конечно, если монета честная. Но мы же обсуждаем не генератор случайных чисел - его энтропия и так заранее известна. Нестохастический источник информации скорее всего после 49 нулей снова выдаст ноль. Это условная вероятность по Байесу.

Так нельзя статьи писать. Вы у себя в голове держите большой кусок допущений, а пишете только выводы из них. Какой Байес? Какая модель? Я могу построить модель, в которой после 49 нулей с вероятностью 80% будет единица, и 20% нолик. Есть какая-то каноническая модель, которая предсказывает вероятность следующего символа по предыдущим? Допустим, это адаптивное кодирование Хаффмана. Но в его классическом виде строка из 50 нулей никак не сжимается в 1 бит. Примерно на это вам и указал комментатор, начавший ветку.

Ок, не будем усложнять лишними допущениями и просто воспользуемся онлайн калькуляторами. По формуле Хартли все три сообщения равновероятны и несут 50 бит информации. Там вообще учитывается только количество букв в алфавите и количество символов в строке. А по формуле Шеннона энтропия первой строки - 0, второй - 1 бит, третьей - 0,99 бит. Очевидно, с двумя буквами в алфавите энтропия не может быть больше 1. Но если воспользоваться онлайн-сжатием, первые две строки кодируются меньшим числом символов, чем третья. Колмогоровская сложность здесь в любом случае превысит длину строки, поэтому все три строки можно считать случайными. Короче, плохой пример - надо было брать строки из чисел или букв.

Ой, не надо так... Формула Шеннона даёт энтропию бит на символ, а не количество информации в сообщении. Всё равно, что сравнивать скорость поезда 250 км/ч и расстояние до города 5 км.

:)
Т.е. мы, таки, пришли к тому, что определяем неопределённое, допускаем недопустимое.
Радует, что не разводим дерьмомЁт.
Как говорили умные - нельзя обЪять необЪятное и нельзя впихнуть невпихуемое.

Я думаю, только вы сможете ответить на мой вопрос. Я занимаюсь ретро-компьютерами 80-х годов, пишу программы для них. Я убежден, что ретро-компьютеры обладают меньшей сложностью, и следовательно, их легче понять и починить, когда что-то идет не так. В то время как современные компьютеры очень сложны и понять их устройство полностью невозможно.

Я хочу, чтобы для любой компьютерной системы можно было измерить ее сложность (или правильнее энтропию) исходя из количества транзисторов и учитывая связи между ними.

Вопрос, существует ли в науке термин, описывающий энтропию компьютерных систем? Можно ли вычислить сложность компьютерной системы в абсолютных числах?

Есть несколько способов оценки сложности, я напишу о них в следующей статье. Обычно чем больше транзисторов и связей между ними, тем сложнее система. Но если говорить об эффективной сложности, то не обязательно. Тут всё зависит от выбранного критерия. Вас, скажем, интересует только понятность и ремонтопригодность, а кому-то важнее мощность и энергоэффективность. Это как с автомобилями: старые дешевле, проще и понятнее, но с ними много возни. А новые дороже и сложнее, зато их в салоне по гарантии обслуживают.

Энтропия Шеннона в данном случае неприменима, а термодинамическая энтропия зависит только от температуры и количества молекул.

Я не был бы так категоричен с выводами и предположениями о том, что информация всегда имеет физический носитель. Когда мы отправляем пакет данных на Марс, он содержит вполне себе информацию в виде последовательности изменений электромагнитной волны. Последовательность это сохраняется несколько минут. Кто рискнет сказать что эта порция волны не содержит информацию? Пример с Марсом как самый очевидный. На практике даже квант волны имеет информацию и не важно как далеко он передаётся.


Такие размышления наводят на мысль, что информацией можно считать любое изменение от предыдущего состояния. Как по мне, такое определение не имеет границ применимости. Но есть в этом забавный момент. Время - также суть изменение. Нет изменения - нет течения времени и нет информации. По-моему это интересно.

Электромагнитная волна - тоже физический носитель, он же не обязательно должен состоять из барионного вещества. Информацию о нас переносят и радиоволны, преодолевшие в космосе уже больше 100 световых лет.

Изменение от предыдущего состояния - это как раз операция "не", инверсия. От неё производны все остальные логические операции. Например, копирование бита можно реализовать двумя инверторами. Так что да, для наличия информации достаточно одного этого свойства. Течение времени, скорее всего, реализуется необратимыми операциями (И, ИЛИ). Изменение возможно и без времени, если оно полностью обратимо. Пример - темпоральный кристалл.

Не могу согласиться что электромагнитная волна есть физический носитель. Даже в увебниках написано что это особая форма материи, что как бы намекает на непохожесть на материальный мир. Да, в тех же учебниках пишут, что электрический ток это упорядоченное движение заряженных частиц. Что по проводам бегают электроны и , внезапно, дырки. И не пишут, что по проводн ку распространяется только поле и чем более стабильный проводник и чем меньше в нем примесей, тем с меньшим сопротивлением распространяется волна.

Вы в статья оперируете к материальным носителям информации и только к ним. На мой взгляд это не о правде, а о ее жалемом состоянии.

И да, если вы сможете привести пример изменения без времени - это нобелевка. К сожалению пример с кристаллами возможен только тоже во времени

"Физический" и "материальный" - не одно и то же. Электромагнитная волна или поле нематериальны (в смысле невещественны), но могут быть описаны физическими теориями. Если знаете примеры нефизических носителей информации или информации без носителя - приведите их.

Да, темпоральный кристалл пока реализован только в дискретном времени, но на каждом отдельном цикле он полностью обратим. Без времени движутся частицы в изолированной системе, находящейся в состоянии теплового равновесия.

Отличная статья. Я бы еще добавил, что информация предполагает приемник и интерпретатор. Выше был пример со следами на песке - для человека или животного-хищника это информация, а для камня - нет.

Что же отличает человека и животное-хищника от камня? Двое первых, получив информацию, могут изменить свое состояние (человек может начать издавать звуки типа "Маааашаааа, вернииись!", хищник изменит свое направление движения и пойдет в сторону следов Маши...)

Моё определение: Информация это воспроизводимое (копируюмое) знание.

Например, если Вы потрогали какую-то штуковина и убедились, что она горячая - это знание. Но другие об этом не узнают, и Вы тоже можете забыть. А если Вы сделали так, чтобы об этом мог узнать кто-то ещё - это информация. И для этого не обязательно, чтобы была бы возможность её или нечто похожее нагреть (поэтому мне не нравится выражение "скопировать атрибут ").

Скорее наоборот: знание - это самокопируемая информация. Измерить температуру может и термометр, но он ничего не знает. А мы можем обработать эту информацию и понять, что она полезна для кого-то ещё. Но это тоже ещё не знание. Вот информация о том, как развести огонь - это уже знание. Она сама заставляет носителей её копировать.

Много раз встречал интуитивно верные догадки о том, что для того, чтобы данные стали информацией, нужен исполняющий механизм, который применяет эти данные в своих целях, как то интерпретирует их.

Попробую обобщить вкратце свои размышления по этой теме, если позволите, прямо здесь, пока не дозрел до самостоятельной статьи по этой теме.

Итак, чем данные отличаются от информации?

Возьмем системы S1, S2,..., Sn. Пусть они умеют оперировать некоторым алфавитом Q. Тогда можно определить некоторые различаемые с точностью до состава, либо состава и некоторой комбинации символов состояния Gi на основе этого алфавита и можно построить переходы Gi -> Gj при некоторой программе действий K. Это в общем имеет смысл некоторого обобщения машины Тьюринга, с тем только добавлением, что программы действий обусловлены идентификацией начального и целевого состояний. То есть это база данных программ, в которых при необходимости попасть в целевое состояние и идентификации текущего выбирается программа команд, которая выполняет этот переход со статистически устойчивым результатом.

Тогда набор данных Gi, Gj и К является значимой информацией для системы S. Имея общий алфавит такие системы могут обмениваться значимой для них информацией и проверять статистическую устойчивость, синхронизируя между собой часть состояний и переходов между ними.

Тогда среди множества субъективных состояний каждой системы образуются взаимно-объективные состояния в подмножества, которые дальше могут укрупняться до разнообразных групп, выбираемых из всего множества систем.

Сознанием в данном случае является способность выполнить некоторую элементарную команду при условии идентификации некоторых признаков желаемого состояния и некоторых признаков имеющегося. То есть элементарный цикл сознания в таком случае будет складываться в развернутое представление о том, какие ситуации происходят и какое поведение переводит из окрестности фактической ситуации в окрестности целевой. Очевидно, что сознание в такой системе не является одиночным явлением, а тесно связано с другой группой явлений.

Мне нравится классификация абхидхармы, включающая в наиболее общем виде пять совокупностей, которые я перевожу на технический язык с разными степенями приближения, например:
- материальные формы,
- оценка степени дифференциации материальной формы соответствующими опорами,
- интегрированный контекст актуального восприятия материальных форм и связанных с ними чувств,
- желательный интегрированный контекст и его интегральная оценка по отношению к актуальному
- и последовательность действий-устремлений с опорами, для перехода из актуального контекста в желаемый)

Кроме того рассматриваются двенадцать звеньев (от тотальной неопределенности потенциальных возможностей траекторий в фазовом пространстве состояний, до окончательной, посмертной определенности фактически произошедших смен состояний в этих самых траекториях).

Вообще, очень плодотворная теория, хорошо в итоге переводится в математику и в инженерные решения.

Интересно!

Моё мнение... Мы можем редуцировать всю материю до двух первичных компонент: энергии, как квантовых флуктуаций некоторой конфигурации и информации, как конфигурации этих флуктуаций. Ну то есть информация-это конфигурация материи. И это одинаково верно как для физически реальной материи, так и для виртуальной в некоторых отображениях, поскольку без носителя нет информации. И это-самое краткое определение информации.

А ещё, насколько я помню, цепи Маркова не зависят от прошлых решений, они зависят только от текущего звена.

Жду про Колмогоровскую сложность! ;)

Мы можем редуцировать всю материю до двух первичных компонент

Почему не до одной? "Информация - это конфигурация материи".
Разве энергия не является производной сущностью от конфигурации материи?

Редуцировать до одной компоненты точно не получится, это предельное сжатие. Заметьте, и даже времени здесь нет, поскольку суть время-энергопереток относительно эталона (вращение Земли, Солнца, Галактики, etc.). Количественная и качественная компоненты. Энергия не может являться производной от материи, это материя-производная от энергии, некоторая её конфигурация. Тут можно добавить про языки предметных областей по уровням квантования условно от вакуума до наибольшей сложности и динамики и некоторые высокоуровневые языки, посредством которых конфигурируется потенциал и сопровождаются процессы. Поэтому интересно версию о Колмогоровской сложности, что там с доступной расчётной частью?!

Редуцировать до одной компоненты точно не получится, это предельное сжатие. 

У меня получилось. Я же написал, что "Разве энергия не является производной сущностью от конфигурации материи?"

Энергия не может являться производной от материи

Не самой материи, а ее конфигурации - информации.
Информация - это конфигурация материи, Энергия совокупность информации.

Заметьте, и даже времени здесь нет

Это логично, т.к. времени не существует. Существует скорость изменения состояний. Посмотрите, что принято за 1сек в палате мер и весов.

У Вас каша... Энергия первична, и только потом, при её взаимодействии с некоторой информацией, она становится некоторой конфигурацией. Совокупностью информации энергия быть не может, поскольку совокупность информации-это информация.

Время-существует, это изменение относительно эталона. Приведённый Вами пример именно это и обозначает: какие изменения произойдут в системе за период изменения эталона.

Если что осталось непонятным-спрашивайте.

У Вас каша...

Нет, конечно. У вас.

 Энергия первична, и только потом, при её взаимодействии с некоторой информацией, она становится некоторой конфигурацией. 

Нет, конечно. Что является источником энергии?

 Совокупностью информации энергия быть не может, поскольку совокупность информации-это информация.

Информация динамична. Ее изменение и есть энергия. Результат изменения информации. Вы же приводите в качестве аргумента обычную иерархию, которая существует в том числе и для энергии.

Время-существует, это изменение относительно эталона. Приведённый Вами пример именно это и обозначает: какие изменения произойдут в системе за период изменения эталона.

Вот в этом и смысл. Что времени не существует как физической величины. А только как некое обобщение. Вы не торопитесь, подумайте.

Если что осталось непонятным-спрашивайте.

Вам бы научиться дискуссию вести и не скатываться в хамство, если
а) не можете внятно объяснить свои мысли
б) не пытаетесь понять, что вам говорит собеседник

Источник энергии-на текущем уровне понимания-квантовые флуктуации.

Информация динамична в некоторых случаях, да. Её изменение-изменение и энергии, да, поскольку информация-описание энергии. Про иерархию ничего не понял.

Время существует как физическая величина, его эталоны Вам известны. Другое дело в том, что его можно не учитывать при редукции к двум первичным компонентам: информации и энергии.

Вам бы научиться дискуссию вести и не скатываться в хамство, если
а) не можете внятно объяснить свои мысли
б) не пытаетесь понять, что вам говорит собеседник

Вообще не понял причины и зеркалирую этот месседж. Называть энергию конфигурацией материи и не видеть своей ошибки это, конечно, пять;)

Источник энергии-на текущем уровне понимания-квантовые флуктуации.

"Порционные колебания" чего?

Информация динамична в некоторых случаях, да. Её изменение-изменение и энергии, да, поскольку информация-описание энергии. Про иерархию ничего не понял.

Пока что вы не дали определения энергии, которое можно было бы использовать осмысленно для описания. Я так понимаю, что у нас все таки расхождение в определении информации, хотя буквы вроде одинаковые (конфигурация материи). В моем определении информация динамична всегда. Вы, я так понимаю, так не считаете. В этом и есть различие.

Как по вашему хранится конфигурация материи (с текущим уровнем знаний)? Особенно с учетом, что она "динамична лишь в некторых случаях".

Время существует как физическая величина, его эталоны Вам известны. 

Это не фундаментальная величина. И она существует лишь в нашем воображении. В реальности есть скорость изменения одной величины относительно другой. Если вы посмотрите, что взято за эталон, это станет очевидным. Именно поэтому "время" может замедляться и ускоряться.

Называть энергию конфигурацией материи и не видеть своей ошибки это, конечно, пять;)

Энергия - это не конфигурация материи, а результат изменения конфигурации. Учтите, что я говорю, что информация динамична.

Вы свои ошибки научитесь для начала видеть, а потом уже у других ищите. А если что то не понятно, вы всегда можете задать уточняющий вопрос, а не додумывать за собеседника.

Энергия-квантовые флуктуации некоторой конфигурации.

https://ru.wikipedia.org/wiki/Квантовая_теория_поля

Информация динамична настолько, насколько связана энергия. Ну то есть мы всегда учитываем энтропию, вносящую свои коррективы в конфигурацию энергии. Ну то есть некоторая энтропия есть всегда, поэтому да, информация в какой то мере динамична.

Конфигурация энергии сохраняется благодаря сложности информации, конфигурирующей её. Насколько эта сложность связывает энтропийные процессы?! Насколько сложность структур задаёт их качество?!

Фундаментальными в вопросе времени являются его единицы измерения, принятые в нашем научном мире. Если Вы прочтете сообщение выше, то увидите, что я так и пишу о нём: изменение относительно эталона (изменений).

Энергия-флуктуации некоторой конфигурации, информация-конфигурация флуктуаций. Тут у Вас полная каша. Результат изменения конфигурации это информация, поскольку конфигурация-это информация, а результат изменения информации-это информация. И уже только потом, поскольку информация изменилась, меняется и энергопотенциал, связанный ей. Но энергия-это не результат изменения информации.

Энергия-квантовые флуктуации некоторой конфигурации.

Конфигурации чего?

Конфигурация энергии сохраняется благодаря сложности информации, конфигурирующей её.

Что значит "конфигурирующей её"? Т.е. все таки информация формирует энергию через конфигурацию?

Фундаментальными в вопросе времени являются его единицы измерения, принятые в нашем научном мире. 

Верно, и они составные. Т.е. времени - как самостоятельной единицы не существует. Есть скорость изменения, т.е. составная единица.

Энергия-флуктуации некоторой конфигурации, информация-конфигурация флуктуаций. Тут у Вас полная каша. 

Вы говорите: Энергия - это флуктация конфигураций, а информация - конфигурация флуктуаций.
Это рекурсия. Т.е. ваши определения попросту бессмыслены.
Разберитесь внимательно и не спеша.

Квантовые флуктуации некоторой конфигурации, в смысле конфигурации чего???!)

Некоторой конфигурации-некоторой формы, структуры, что (форма/структура) является информационной компонентой флуктуаций.

Информация не формирует энергию, информация описывает сформированную энергию. Формирует энергию энергия, некоторая её конфигурация. Условно говоря, электроны приводятся в движение магнитным полем, но электрон и магнитное поле-это информационные понятия, а описывают они некоторые формы взаимодействующих энергий. Это просто фигура речи такая, что информация конфигурирует энергию, но информация не может взаимодействовать с энергией, это качественно различные понятия. Информация с информацией, энергия с энергией.

Составное время, не составное-без разницы. Это изменение относительно эталона, тему можно закрыть.

С рекурсией у Вас опять каша. Нет там никакой рекурсии. Есть флуктуации некоторой конфигурации, то есть некоторой формы, описание чего (конфигурации/формы) есть информация. И есть конфигурация (форма) флуктуаций, что опять же информация. Всего два первичных понятия, это так сложно???!

Квантовые флуктуации некоторой конфигурации, в смысле конфигурации чего???!)

В прямом.

Некоторой конфигурации-некоторой формы, структуры, что (форма/структура) является информационной компонентой флуктуаций.

Так все таки информация часть энергии? ) Информационная компонента флуктуаций. Вы же сам пишите.

Формирует энергию энергия, некоторая её конфигурация. 

Вот вот, начинается рекурсия - энергия энергий. Конфигурация - это же информация. Так энергия формирует энергию или информация? )

Это просто фигура речи такая

Удобно.

Составное время, не составное-без разницы. Это изменение относительно эталона, тему можно закрыть.

Разница в том, что это не фундаментальная величина и использовать ее как фундаментальную нельзя. Вот ваша цитата, которая звучит так, как будто это можно было делать. "Заметьте, и даже времени здесь нет". Собственно я вам и сказал, что так и должно быть ) А вы с чем то своим спорите.

С рекурсией у Вас опять каша.

Да это понятно, только

 Есть флуктуации некоторой конфигурации, то есть некоторой формы, описание чего (конфигурации/формы) есть информация. И есть конфигурация (форма) флуктуаций, что опять же информация.

Вот тут вы опять рекурсию делаете "флуктуации формы" и "форма флуктуаций". И забавно, что вы пришли к тому, что я и говорил, что первично есть только информация ) Просто перечитайте эту свою цитату.

 Всего два первичных понятия, это так сложно???!

Я вам рекомендую все таки включить логику и подумать, о чем я вам говорю. Не свои фантазии, а те слова, что вы используете и ту критику, которую я вам пишу.

Вот ваше первичное:
X это A от B
Y это B от А

Видимо вы в голове у себя подменяете смыслы и контекст при переключении между определениями, поэтому "не видите" рекурсивности. А скорее всего просто заблуждаетесь и не можете этого признать ) Классика

Рекурсия есть только у Вас. Тут столько всего было уже написано, что даже ребёнок бы понял. Первичных компонент ДВЕ, а не одна, и они несводимы друг к другу, поскольку одна из них ФОРМА-информация, а другая СОДЕРЖАНИЕ-энергия. Всё, мне лень что то ещё писать, Вы спорите сам с собой.

Всё, мне лень что то ещё писать, Вы спорите сам с собой.

Я не спорю, а объясняю вам ваши когнитивные искажения. Удачи.

Возможно, будет полезно любителям физической природы информации.
Говорят, для передачи данных необходимо наличие прямого или опосредованного физического взаимодействия между источником и приёмником данных.
Так вот, ставлю сто долларов США на то, что смогу предложить рабочую схему передачи данных, в которой источник физически не взаимодействует с приёмником ни напрямую, ни косвенно.

Повышайте ставку, ваше открытие на нобелевку тянет. Но боюсь, что вы уже опоздали - в 2017 г. китайцы осуществили контрпортацию информации. Я писал об этом здесь: https://habr.com/ru/articles/766502/

Нет, там всё проще. Значительно проще. До омерзения банально. Нобелевку за это точно не дадут. И запантентовать невозможно. Воспроизводимо в домашних условиях. Но таки да, канал связи без физического взаимодействия источника данных с приёмником. Всё по-честному. Сколько готовы поставить? Я поставил 100 баксов.

Я на деньги не играю, могу только пересмотреть свои байесовские вероятности в отношении теории физичности информации, если вы докажете своё утверждение экспериментально в контролируемых условиях. За это, кстати, ещё премию имени Гарри Гудини дают. Или Джеймса Рэнди.

Ставьте хоть бакс, хоть десятку. Без разницы. Если до ста, то в случае проигрыша с вас обещание потратить проигранное на какое-нибудь благое дело. Например, на сто рубликов можно купить вкусняшек голодным бездомным котятам. Или даже хотя бы бутылку пива бомжу.
А если выиграете, будет сто баксов, что всегда приятно.
Просто поймите, без денег это опять будет пустопорожняя ни к чему не обязывающая болтовня.
Условия пари ведь предельно просты и понятны. Канал передачи цифровых данных, который можно воспризвести дома из подручных предметов, и при функционировании которого не требуется ни прямого, ни косвенного физического взаимодействия между источником и приёмником данных. Если вам кажется, что я где-то оставил лазейку смухлевать, давайте обсудим доп. условия.

Я не верю в эмпирический метод познания и принцип индукции. Даже если я смогу воспроизвести ваш эксперимент в домашних условиях, я не могу быть на 100% уверен, что чувства меня не обманывают. Вы сначала предложите теорию, объясняющую, каким образом информация может передаваться без физического носителя. И тогда уже подумаем, как её можно фальсифицировать на практике. Хотя было бы убедительнее, если бы нашлась научная публикация с воспроизводимыми результатами.

Вы сначала делаете свою ставку. Как я уже сказал, доллар сгодится.
Да, будет теория. Вернее описание процесса передачи данных, и он будет настолько простым, что даже натурный эксперимент не потребуется.

Боюсь, что мы с вами не сможем объективно определить, кто же из нас выиграл. Сколько теорию не доказывай, а сделать её на 100% истинной нельзя, иначе можно попасть в ловушку Байеса. Но достаточно всего одного эксперимента, чтобы теорию опровергнуть. Точнее, признать, что она ошибочнее другой, ещё не опровергнутой теории. А что в нашем случае? Вот предложите вы свою теорию нелокальной передачи информации. Я в ответ дам своё объяснение, почему информация локальна и физична. И что дальше? Как понять, чьё объяснение ошибочнее?

Эх, материалисты нынче уже не те. Растеряли былую удаль. Трусоваты стали и нелюбопытны. На словах так все такие из себя рыцари науки в сияющих доспехах, но как только дело доходит до дела, не рискуют даже поставить доллар против ста за свои убеждения.
Впрочем, могу понять. Если навык самостоятельного ведения интеллектуальной дискуссии отсутствует, выходить на ринг, даже в самых тепличных условиях - только позориться.

Эх, материалисты нынче уже не те.

У вас несколько устаревшие представления о современных материалистах) Оппонент же вам ясно написал

Я не верю в эмпирический метод познания и принцип индукции.

Пример проигранного 25-летнего пари на ящик вина по поиску нейронных коррелятов сознательного опыта ("сигнатур сознания"). Хотя что убедительнее их наличия исходя из результатов электрической стимуляции разных областей мозга, если не привязывать этот опыт прям к конкретным нейронам, хотя и такое встречается, а к областям мозга (сетям), индивидуально для разных людей из-за иерархичности и пластичности нейронных структур, и считать их процессами, а не отдельными статическими состояниями? Иллюстрация отчетов пациентов об ощущениях во время стимуляций.

Hidden text

Хотя заяви Кох, что эти корреляты обнаружены, т.е. цель исследований достигнута, то наступит конец их щедрого финансирования из разных фондов, и соответственно безбедного существования) Речь именно о коррелятах, а не объяснения самого субъективного опыта (пресловутой проблемы квалиа), которое, возможно, будут искать еще долго, и так полностью не найдут. Это не подрывает мировоззрения, т.к. современные материалисты давно не те замшелые ортодоксы, которые ассоциировали материю с "неделимыми" атомами, твердым веществом, и подобным, а скорее реалисты в духе философии познания И. Канта. Они могут привлекать, например, обратную причинность для объяснения загадочных свойств ментальных явлений, и даже физических, см. работы Ф. Эллиса, известного астрофизика, соавтора Хокинга (1, 2).

Всё это очень интересно. Нарративы мы любим. Исторические экскурсы это сейчас тема.
Кстати, вы тоже можете поучаствовать. Будете ставить денежку, хотя бы доллар против ста, или тоже побоитесь?

Судя по тому, что вы готовы поставить $100 против $1, вы считаете, что ваша позиция бесспорна, и переубедить вас не удастся. А готовы ли вы выслать $100 независимому эксперту, который примет ваши аргументы, убедится, что действительно при передаче информации нет ни прямого, ни косвенного физического взаимодействия, и только после этого вернёт вам $101. А если эксперта не убедят ваши доводы - сумма уезжает оппоненту. На таких условиях будете спорить?

Если приведёте этого самого независимого эксперта, то я согласен.

Тогда, возможно, подвох в разном понимании задачи.

Классически, по учебникам, передача информации это ситуация, когда есть Алиса и есть Боб. Алиса хочет передать сообщение - последовательность символов длины не более L в алфавите мощности N. Других ограничений на сообщение не накладывается. Также, процесс должен быть воспроизводимым (т.е. если раз из миллиона Боб случайно угадал сообщение - не считается).

У вас, возможно, другая трактовка передачи информации. Какая-нибудь философская/мультимировая, или вообще астрологическая. Ну типа написано в 5-м параграфе у Нострадамуса, что если Луна в доме Овна, то информация считается переданной. Открываем Нострадамуса - а там и правда так написано. И вы с удовольствием потираете руки, мол "вот видите, я выиграл!"

Нет, у меня точно такая же трактовка. Алиса передаёт данные Бобу с некоторым битрейтом. Нолики и единички, как мы любим. В мысленном эксперименте битрейт будет 1 бит/сутки. 45 байт в год. Алиса будет передавать секретный ключ шифрования, который она украла у плохих парней и который был сгенерирован согласно лучшим рекомендациям по созданию секретных ключей. 45 идеально высокоэнтропийных байт в год. То есть Боб ничего угадывать не может. Никакого мухлежа с наличием гипотетического квантового компьютера у Боба не будет.

Так я и думал - телепортация информации по схеме Короткова-Джордана! Алиса на квантовом компьютере слабо измеряет кубит, запутанный с частицей Боба, отменяет слабое измерения, если вероятности сместились не туда, пока не получит нужное значение, и противоположное ему значение нелокально передаётся Бобу при измерении им своей частицы. Вот вам и передача информации без сигнала. Только это квантовая информация, а мы вроде обсуждали классическую.

Господи, ну я же специально сказал, что схема воспроизводится в домашних условиях из подручных материалов. Или у вас дома есть бытовая утварь, позволяющая слабо измерять кубиты?

Плюс к тому, конечно же никакой многомировой магии типа "в одном из бесчисленных мультимиров Боб угадает секретный ключ" тоже не будет. Считам, что мир один, Алиса одна, Боб один, передача ключа с первой попытки.

Как-то я проглядел, что переписываюсь с автором целого трактата по философии информации! Воздаю должное вашей работе - весьма интересная систематизация темы в русле субъективного идеализма, но без религиозно-эзотерической мистики. Я только поверхностно ознакомился, но на досуге прочитаю внимательнее. Как вы понимаете, я использую несколько иную терминологию и придерживаюсь более реалистичных подходов. Поэтому не могу согласиться с утверждениями, что информация нематериальна (в смысле нефизична) и не существует вне контекста. Думаю, вас тоже заинтересует моя следующая статья.

Все эти "измы" - та ещё условность, по большей части выдуманная марксистами, глубина владения темой которых оставляет желать много лучшего. Шутки ли, Декарта, верующего в Бога, они причислили к субъективным идеалистам, а атеиста Канта к объективным.
Буду ждать следующую вашу статью. А тем временем запощу описание своего мысленного эксперимента. Не носить же такое в себе. Всё равно никто не решился спорить на деньги.

Никто вас не поддержал. Значит, если бы вы передали $100 независимому судье, случайному собеседнику, он бы присудил вам поражение.

Шутки ли, Декарта, верующего в Бога, они причислили к субъективным идеалистам, а атеиста Канта к объективным.

Вы взяли сложные примеры. Нет бы Гегеля в ориентации которого никто не сомневается) Так же как и в ориентации подавляющего числа философов. Но Аристотель, Декарт, и особенно Кант (возможно еще Лейбниц), исключения из этого списка. Почему? Потому что они в первую очередь естествоиспытатели занимавшиеся разными науками. Аристотель и Кант теоретически, Декарт в придачу даже экспериментировал. Их философии в первую очередь философии познания выросшие из анализа наук своего времени. Особенно это относится к Канту, который первый провел системный анализ почти всей науки, тогда это было еще возможно, фактически изобретя этот метод. Философские представления у них выводились из такого анализа, а не были в посылках, как у традиционных философов, которые в основном только обосновывали их. По этой причине в наследии этих трех философ каждый исследователь может найти свое, и сделать соответствующее заключение об их направленности, в особенности наследия Канта. Его основной заслугой является введение в теорию познания представлений об априорных формах и категориях познания, которые позволили найти баланс между рациональными и эмпирическими методами познания, водоразделом в философских баталиях всех времен. Это вершина философской мысли в области познания, которая намного опередила свое время, которую до конца не поняли даже его последователи, и которую пока никто не превзошел. Поступив честно он не указал на источник происхождения этих форм и категорий, в его время не было таких знаний, даже теории эволюции. Именно последующие эволюционные исследования, включая эволюцию когнитивных форм, выявили структуры и функции в организмах и НС животных претендующие на воплощение этих форм и категорий. Сейчас, начиная с эпохи когнитивной революции, представления в духе априорных форм и категорий Канта фактически определяют развитие психофизиологии и когнитивных исследований. В отличии от других философский течений теория Канта в прямом смысле слова является источником идей для постановки исследований в разных областях науки. Как пример обзоры кантианской программы исследований в нейронауках, включая для числовой (1, 2) и геометрической интуиции (1, 2), которые начинают проявлять себя фактически с рождения.

Поэтому для вас Кант атеист, для других субъективный идеалист, для третьи трансцендентный, для четвертых реалист, для пятых агностик, для шестых рационалист, для седьмых эмпирик, для восьмых мистик, для девятых иннативист, и тд... комбинированные варианты перечислять не буду)

Всё равно никто не решился спорить на деньги.

В курсе ваших философских дискуссий на хабре. С учетом того, что это мысленный эксперимент, а не результат реально поставленного в физической лабе, подтвержденного независимо, но требующего объяснения (опыты Майкельсона-Морли в пример), как часто бывает, никакого смысла спорит не было. При таком раскладе всегда можно отболтаться)

Кстати, вы тоже можете поучаствовать.

Мои представления о проблеме информации кратко изложены в этом коменте. Можете сделать по нему заключение об отношении к теме вашего пари)

Относительно демона Максвелла, ничто не мешает ему работать, если он знает начальные импульсы всех частиц в сосуде. Как будет подлетать быстрая/медленная частица к дверке - открывает, иначе - не открывает. Никаких проблем со специальной теорией относительности, и никаких требований по безграничной памяти. В конце концов, в сосуде может быть и 100 частиц газа.

Это в ньютоновской механике можно предсказать движение частиц наперёд, зная их начальные импульсы. В квантовой физике действует принцип неопределённости: если хорошо известно местоположение (у дверцы), импульс будет максимально неопределённым, и наоборот. А СТО запрещает мгновенно узнать информацию о всех частицах, их можно измерить только по очереди. Даже если в контейнере будет одна броуновская частица, демону нужно записать один бит информации, чтобы определить, справа она находится или слева. И ему придётся повторять это на каждом такте работы такого двигателя (двигателя Силарда).

Так вы полагаете, в чисто механической модельной системе идеального газа, где никаких квантовых эффектов нет, второе начало не работает ? :) в общем-то, об этом и шла речь при обсуждении демона Максвелла, никаких квантовых неопределенностей, чисто импульсы и телемаркет, второе начало опровергнуто. На самом деле, так и есть, посмотрите возвратную теорему.

Независимо от носителя сама информация всегда дискретна, то есть состоит из конечного числа знаков (символов).

К чему тогда относить бороздки на виниловых пластинках? Будьте осторожны с ответом, аудифилы всегда настороже))

Любая информация сводится к последовательности элементарных выборов между двумя возможностями: вопросов, на которые можно ответить «да» или «нет».

Любая ли? Какая тогда энтропия у кота Шрёдингера?

Но специальная теория относительности Эйнштейна не позволит ему одновременно узнать состояния всех молекул, поскольку информация не может передаваться быстрее скорости света

Квантовая запутанность и как следствие квантовая телепортация (хотя не понятно что на самом деле причина, а что следствие) возможно немного позволит это сделать.

Если в философском понимании под материей подразумевается объективная реальность, данная познающему субъекту в виде ощущений. Материей является бесконечное множество всех существующих явлений, объектов и систем, субстрат всех многообразных свойств, отношений, взаимодействий и форм движений. А информация -- это качественная характеристика материи (то что мы познаём о материи), как здесь быть с бесконечным множеством существующих явлений? Возможно ли описание этого бесконечного множества битами?

К чему тогда относить бороздки на виниловых пластинках? 

Пластинка - аналоговый носитель, бороздки на ней изоморфны звуковым волнам. Но саму музыку можно оцифровать и разложить на биты.

Любая ли? Какая тогда энтропия у кота Шрёдингера?

Не любая, а только классическая - я сразу оговорился, что о квантовой информации расскажу в отдельной статье. У кота Шрёдингера энтропия нулевая, потому что он в чистом квантовом состоянии, пока не открыли коробку. Я имею в виду сферического кота в вакууме, изолированного.

Квантовая запутанность и как следствие квантовая телепортация (хотя не понятно что на самом деле причина, а что следствие) возможно немного позволит это сделать.

Телепортация возможна между двумя запутанными частицами посредством третьей, с локальной передачей информации. С большим количеством хаотично движущихся частиц такой номер не пройдёт.

как здесь быть с бесконечным множеством существующих явлений? Возможно ли описание этого бесконечного множества битами?

Насчёт бесконечного множества - это далеко не факт. Наблюдаемая вселенная, данная нам в ощущениях, точно конечна, и можно даже посчитать её энтропию - где-то порядка 10^102. Мультивселенная теоретически бесконечна, но ничто не мешает описать её состояние единой волновой функцией. Множество Мандельброта тоже бесконечно и кажется сложным, а задаётся короткой формулой.

Но саму музыку можно оцифровать и разложить на биты

Тогда мы перейдём от информации к данным, которые по сути ограниченное множество.

Я имею в виду сферического кота в вакууме, изолированного

Кроме воображения больше нигде не существует абсолютно обособленных систем. Хотя и в воображение иногда кое-что просачивается)

С большим количеством хаотично движущихся частиц такой номер не пройдёт.

Есть на то теоретические ограничения? Ну и с хаосом это больше похоже на литературную гиперболу)

Наблюдаемая вселенная, данная нам в ощущениях, точно конечна

Это скорее всего в случае размеров вселенной. Но кроме этого существуют и явления в пределах этих размеров. Как быть с ними? Мы же не может просто так их удалить из рассмотрения. Разве что для мысленного эксперимента.

Кроме воображения больше нигде не существует абсолютно обособленных систем

Существуют, вопрос только в размерах и времени изолированности. Обычно изолированность поддерживается считанные секунды на уровне отдельных частиц, при температуре, близкой к абсолютному нулю.

Есть на то теоретические ограничения?

Теоретически каждый из нас может в любой момент квантово туннелировать или телепортироваться хоть в другую галактику, но это настолько маловероятно, что на практике никогда не произойдёт.

Это скорее всего в случае размеров вселенной. Но кроме этого существуют и явления в пределах этих размеров

В конечном объёме пространства не может содержаться бесконечно много информации - есть предел Бекенштейна.

Существуют, вопрос только в размерах и времени изолированности. Обычно изолированность поддерживается считанные секунды на уровне отдельных частиц, при температуре, близкой к абсолютному нулю.

Там же около абсолютного нуля достигается изолированность от гравитации, солнечной радиации (Солнце довольно сильный источник нейтрино) и отсекается влияние вакуума? Есть ещё тёмная материя, которая вроде бы как есть и ни на что не влияет, но это не точно. И если мы говорим материя, можем (хотя с тёмной материей крайне натянутая возможность) говорить об энтропии этой материи. Кстати, насчёт вакуума. При некотором приближении, мы не можем утверждать, что это пустота и там ничего нет. Теории и некоторые опыты указывают, что что-то там есть хотя довольно виртуальное. Соответственно назревает вопрос об энтропии самого вакуума. Не знаю, на сколько корректно и корректно ли вообще говорить о вакууме как о неком объекте микромира, скорее всего (только лишь умозрительное предположение обывателя) не корректно применять энтропию квантового мира к вакууму.

Теоретически каждый из нас может в любой момент квантово туннелировать или телепортироваться хоть в другую галактику, но это настолько маловероятно, что на практике никогда не произойдёт.

Не припомню даже теорий по возможности квантового туннелирования макрообъектов. Разве что в произведениях фантастов)

В конечном объёме пространства не может содержаться бесконечно много информации - есть предел Бекенштейна.

Тому есть опытные доказательства, или только в теории? Ибо практика - критерий истины.

Там же около абсолютного нуля достигается изолированность от гравитации, солнечной радиации (Солнце довольно сильный источник нейтрино) и отсекается влияние вакуума? Есть ещё тёмная материя, которая вроде бы как есть и ни на что не влияет, но это не точно. 

Тёмная материя, нейтрино или вакуум на квантовых масштабах оказывают настолько слабое влияние, что им можно пренебречь. Есть теории объективной редукции, но они пока ничем не подтверждаются.

Тому есть опытные доказательства, или только в теории?

Доказательством можно считать факт существования чёрных дыр - это объекты, которые достигли предела Бекенштейна и потому могут только расширяться, чтобы вместить в себя ещё больше информации при поглощении вещества.

Ибо практика - критерий истины

Нет ничего практичнее хорошей теории.

Доказательством можно считать факт существования чёрных дыр - это объекты, которые достигли предела Бекенштейна

Плотность чёрной дыры может быть любой. Расчёты приведены здесь http://astrotourist.info/paradoksy-sverkhmassivnykh-chernykh-dyr

Не плотность, а количество информации (энтропии), которое по формуле Бекенштейна-Хокинга пропорционально площади горизонта событий.

Здесь как будто та же самая проблема целого-части. Мы уже находимся внутри чёрной дыры (вселенной). А если представить, что какая-то галактика настолько массивная, что её невозможно покинуть из-за гравитации, но внутри неё существует сотня других классических чёрных дыр? Находясь на обычной планете в такой галактики, мы достигли предела плотности информации, или ещё нет? А если 2 чёрных дыры свести вместе, их энтропия суммируется? Сам термин "чёрная дыра" это не какой-то конкретный объект, а скорее описание ситуации.

Наблюдаемая Вселенная - не чёрная дыра, до предела энтропии ей далеко, к тому же она ускоренно расширяется. Но предел Бекенштейна объясняет, почему у Вселенной такая низкая плотность вещества. Я разберу эту тему в отдельной статье, вместе с голографическим принципом.

Наблюдаемая Вселенная - не чёрная дыра

Почему нет? Если формально подставить предположительную массу в формулу, получим радиус Шварцшильда больше предположительного размера. То есть, мы внутри горизонта событий.

Насколько я помню, там получается радиус Шварцшильда около 10 млрд св. лет, а радиус наблюдаемой вселенной - более 40 млрд св. лет.

Расчёты есть по моей ссылке выше.

Тёмная материя, нейтрино или вакуум на квантовых масштабах оказывают настолько слабое влияние, что им можно пренебречь.

Не знаю на сколько корректно говорить о слабости влияния сторонних квантовых частиц на квантовом уровне. Этот как за рулём грузовика не замечать разметки и малолитражек) Аналогичное касается вакуума на квантовом уровне, который уже не совсем пустое место даже на уровне ниже адронного вакуума.

Доказательством можно считать факт существования чёрных дыр - это объекты, которые достигли предела Бекенштейна и потому могут только расширяться, чтобы вместить в себя ещё больше информации при поглощении вещества.

Ну это же не накопители информации? В обывательском понимании) Опять же, что там в сингулярности за горизонтом событий творится, можно только гадать. Может быть, как считают то фантасты, происходит квантовое туннелирование макрообъектов)

Нет ничего практичнее хорошей теории.

О да, коммунизм был хорошей теорией. Можно сказать потрясающей)

Ну это же не накопители информации?

Чёрные дыры - накопители огромного количества энтропии. В одном Стрельце-А* энтропии больше, чем частиц в наблюдаемой вселенной. И речь не о сингулярности - вся эта информация каким-то образом записана планковскими ячейками на горизонте событий.

Чёрные дыры - накопители огромного количества энтропии

А куда растворились материя, энергия, время? В энтропию ушли?

В одном Стрельце-А* энтропии больше, чем частиц в наблюдаемой вселенной

В колоде карт для покера возможных перестановок больше чем частиц в наблюдаемой вселенной, но это не делает их неким подобием чёрных дыр. Хотя тут как посмотреть))

вся эта информация каким-то образом записана планковскими ячейками на горизонте событий

Очередная хорошая и красивая теория? На сколько понимаю, у нас нет ясного представления о том, что происходит на планковских размерностях, про сингулярность можем сказать только что она есть, как и нет ясного объяснения, что же на самом деле есть энтропия, но есть отчётливое понимание как это работает на горизонте событий чёрных дыр. Странно как-то.
А что даёт вообще знание об энтропии внутри объектов таких как чёрные дыры?

Формула Бекенштейна-Хокинга для энтропии чёрных дыр следует напрямую из второго закона термодинамики и релятивистских уравнений. Голографический принцип и AdS/CFT-соответствие по большому счёту основаны на теории струн, но в них тоже уже мало кто сомневается. Подождите немного, я всё это объясню в статье.

Формула Бекенштейна-Хокинга для энтропии чёрных дыр следует напрямую из второго закона термодинамики и релятивистских уравнений

То что одно следует из другого совершенно не значит (иногда абсолютно не значит), что так есть на самом деле. Приводил пример с коммунизмом, который был хорошей теорией, но и тепловая смерть вселенной следовала напрямую из классической термодинамики. Только физика микромира работает немного по другим принципам. Какая физика на горизонте событий, какая за горизонтом?

Голографический принцип и AdS/CFT-соответствие по большому счёту основаны на теории струн, но в них тоже уже мало кто сомневается

Больше похоже, что на них перестали обращать внимание и психовать при упоминании. Настолько, что некоторые с большей охотой принимают на веру, что мы живём в симуляции либо внутри объекта по своим свойствам напоминающего ЧД (обратите внимание у меня здесь нестрогая дизъюнкция).

Sign up to leave a comment.

Articles