Основные термины
Клод Шеннон обосновал вероятностную теорию информации. Он предложил понимать информацию как меру определённости той или иной ситуации, поведения системы. Противоположностью информации в этом случае выступает энтропия, т.е. мера неопределённости, неупорядоченности любой системы, идущей к своему распаду. Неопределённость возникает в том случае, если по причине отсутствия или недостатка информации необходим выбор из двух или большего числа возможностей. Информация позволяет её получателю уменьшить неопределённость, организовать систему, выбрав правильный шаг. Для общей теории информации не суть важно, стихийно это происходит (как в живой природе), или же сознательно (как у людей).
Основоположник кибернетики Норберт Винер распространил информационный подход на процессы управления и связи в природе, человеческом обществе и работе машин (в особенности компьютеров, специально предназначенных для накопления и переработки информации на основе ее электронного кодирования). Важно подчеркнуть, что информации нет без какого-то материального носителя; что она качественно отличается в неорганической природе; в биологических системах (живых, самоуправляющихся телах); в поведении сознательных существ.
С точки зрения теории информации человеческое сознание представляет собой один из механизмов выработки, передачи, приёма, преобразования, накопления и использования информации самого разного рода. В рамках этого подхода оставляются в стороне личностные, субъективные стороны психики людей; обращается внимание на то, что объединяет её работу с техническими устройствами обработки информации (компьютерами и т.п.). Информационные характеристики дополняют определение человеческого сознания как отражения.