Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Материалы » Концепция современного естествознания » Поясните понятия энтропии и термодинамической вероятности. В чем состоит принцип Больцмана? Что общего между понятиями "энтропия" и "информация"? поясните понятие информация, ук

Энтропия - степень хаоса или беспорядка в системе. Второе начало термодинамики определяет важную тенденцию в эволюции физического мира - с течением времени в замкнутой изолированной системе энтропия должна возрастать. В результате энергии распределяются по рангам так, что высший занимают те, которые способны превратиться в большее число видов энергии. Тогда низший ранг останется теплоте, превращения которой ограничены принципом Карно. Из энергий, встречающихся в физике и химии, высший ранг имеют механическая и электрическая энергии, промежуточный - химическая энергия (из-за тепловых явлений, сопровождающих химические реакции). Психологически удобно, поскольку наш ум привык негативно воспринимать потерю чего-либо, пользоваться величиной, равной энтропии, но с обратным знаком, которую предложил ввести Шредингер. Один из творцов теории информации французский физик Бриллюэн (1889-1969) назвал ее негэнтропией: N = - S. Негэнтропия представляет качество энергии, а принцип Карно выражает закон оценивания энергии, ее деградации. Система, способная производить механическую работу (сжатая пружина, заряженная батарея, поднятый над Землей груз), может рассматриваться как источник негэнтропии, и, совершая работу, она теряет ее запас.

Во второй половине нашего столетия проблема информации стала одной из самых актуальных научных проблем, обсуждаемой в разных аспектах и на разных уровнях. Так, специалист в области передачи информации уделил бы основное внимание, например, количественным характеристикам, кодированию, влиянию шумов, помех, специалист по информатике интересуется поиском и хранением информации, информационным обеспечением науки и т.п.

Развитие науки о системах управления и кибернетики выдвинуло задачу исследования природы и сущности информационных процессов, без которых немыслима работа ЭВМ и систем управления. Исследования генетиков привели к выводу, что в основе биологической наследственности также лежит информация, благодаря которой живое воспроизводит себя в потомстве. В нейрофизиологии представление об информации позволило сформулировать закон о пропорциональности ощущения логарифму возбуждения, поскольку нервные волокна, передающие сигнал от акцепторов к мозгу, действуют по принципу идеального канала связи. Специалист по семантике смотрит на информацию как на систему знаков.

В обыденном сознании, по мнению академика В.М. Глушкова, понятие информации охватывает как те сведения, которыми располагают и обмениваются люди, так и те, что существуют независимо от них. Объем этой информации растет, так что можно говорить об информационном буме.

Прогресс кибернетики связан и с совершенствованием средств оценки измерений информации. Винер, один из создателей этой науки, не дал определения информации, но отметил, что "это не материя, и не энергия", это просто "информация". В 1927 г. Р.В. Хартли предложил исходить из того, что количество информации, заключенной в любом сообщении, связано с количеством возможностей, исключающихся этим сообщением.

Клод Шеннон и Уоррен Уивер в своем фундаментальном труде "Математическая теория связи" (1949 г) развили идею Хартли и представили формулу вычисления количества информации, в которой последняя возрастала с уменьшением вероятности отдельного сообщения. Так информация была ими определена как мера свободы чьего-либо выбора, как логарифм доступных выборов.

В 40-х годах Шеннон, исследуя пропускную способность каналов связи, вывел простую формулу, по которой можно рассчитать количество информации, отвлекаясь от ее качественных характеристик. Количество информации стали понимать как меру упорядоченности структур в противовес мере хаоса - энтропии.

Эта формула была функционально эквивалентна формуле, написанной Планком для термодинамической энтропии. Ряд ученых предполагали огромные возможности, открывающиеся из-за этого совпадения. Другие были осторожными в своих оценках. Эшби, например, заметил: "Движение в этих областях напоминает движение в джунглях, полных ловушек".


Это интересно:

Ухо и его функция. Слуховое восприятие
С помощью слуха человек воспринимает звуки. Органом слуха является ухо, которое представляет собой систему последовательно связанных между собой отделов: наружное, среднее и внутреннее ухо. Наружное ухо состоит из ушной раковины и слухов ...

Спектрофотометрическое определение скорости набухания митохондрий
Потенциал-зависимый вход ионов К+ в митохондрии вызывает вход осмотически облигатной воды, что ведет к набуханию и увеличению оптической плотности. Среда для набухания: КCl 50 mM; NaH2PO4 5 mM; MgCl2 0.5 mM; Hepes 5 mM; EGTA 100 мкM. В ...

Теория катастроф
Мы привыкли к стабильности и постоянству. Мы ступаем по твердой поверхности Земли и верим, что она всегда будет служить нам опорой. Мы знаем, что вслед за зимой придет лето, станет тепло и солнечно, и так будет всегда. Мы думаем, что мир ...