Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — широко используемый в естественных и точных науках термин. Впервые введён в рамках термодинамики как функция состояния термодинамической системы, определяющая меру необратимого рассеивания энергии. В статистической физике энтропия является мерой вероятности осуществления какого-либо макроскопического состояния. В теории информации энтропия — это мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации.
whitelion
| пятница, 21 ноября 2014