logo
Informatika_bilety

Количество информации, энтропия, наглядное представление об алгоритме

Количество информации:некоторое конечное множество элементов, связанных друг с другом некоторыми связями

Энтропия – сумма произведений вероятностей различных состояний предмета на логарифмы этих вероятностей, взятая с противоположным знаком

H(Х)=-, где pi-вероятность каждого отдельного состояния предмета инф.сбщ, а – любое число

При увеличении числа состояния энтропия увеличивается , при объединении неск.независимых элементом их энтропии складываются.

НАГЛЯДНОЕ ПРЕДСТАВЛЕНИЕ

Пусть предмет информационного сообщения X находится в некоем исходном состоянии , принадлежащим области применимости алгоритма G(Г) алгоритма Г. Применение алгоритма Г к предмету в исходном состоянии доставляет значительное состояние , или решение.

Процесс применения алгоритма разбивается на n шагов ограниченной сложности. Каждый шаг приводит к преобразованию возникшего к этому шагу i-го состояния в последующее i+1-е состояние, i=1,2,…. При этом преобразование осуществляется на основании информации о заранее ограниченной активной части i-го состояния, и преобразование затрагивает только эту активную часть.

Конечным набором правил алгоритма задается оператор , то есть правило преобразования каждого предыдущего состояния в последующее:

Алгоритмический процесс , и так далее, может иметь несколько исходов. Заключительное состояние (решение) является результатом выполнения всех n шагов алгоритма. Безрезультатная остановка преобразований происходит, если возникло i-е состояние , для которого оператор не определен; в этом случае исходом, наряду с остановкой, может быть неограниченное продолжение процесса.

Практическим воплощением являются ИТ и системы, которые, благодаря определённым свойствам информационных технологий, формируются на базе единых принципов.