Вопрос задан 22.10.2025 в 11:58. Предмет Информатика. Спрашивает Набоков Евгений.

3.Чем отличается информация от сообщения? Приведите примеры. 4.Что такое кодирование, декодирование? Приведите примеры. 5.В чём смысл количества информации? Какова связь количества информации с энтропией, хаосом? 6.Что означает термин «актуализация информации»? 7.Каковы основные свойства информации?

Перейти к ответам

Ответы на вопрос

Отвечает Тупиков Сергей.

  1. Информация vs сообщение

  • Информация — это смысл, который снижает неопределённость у получателя. «Завтра контрольная по теме X» — это знание, меняющее мои планы.

  • Сообщение — это материальный/знаковый носитель информации: звуковая фраза, SMS, письмо, пакет в сети.

Примеры:

  • На табло аэропорта высветилось «Рейс 123 задержан до 18:45».

    • Информация: рейс прибудет позже (моя неопределённость о времени уменьшается).

    • Сообщение: строка символов на экране.

  • Датчик температуры выдал «22°C».

    • Информация: в комнате комфортно.

    • Сообщение: числа «2», «2», «°», «C» в отчёте датчика.


  1. Кодирование и декодирование

  • Кодирование — представление информации в виде знаков по правилам кода для передачи/хранения/обработки.

  • Декодирование — обратное преобразование знаков в исходное содержание.

Примеры кодирования:

  • Текст → байты по UTF-8/ASCII.

  • Сжатие: изображение → JPEG/PNG, аудио → MP3/AAC (меньше объём, частично с потерями).

  • Передача: текст → точки и тире азбуки Морзе; URL → QR-код.

  • Шифрование (частный случай кодирования с ключом): письмо → зашифрованный блок.

Примеры декодирования:

  • Браузер читает байты UTF-8 и показывает буквы.

  • Телефон сканирует QR-код и восстанавливает URL.

  • Почтовый клиент «распаковывает» вложение ZIP.

  • Приёмник Морзе переводит ·– в «A», –··· в «B» и т. д.


  1. Смысл “количества информации” и связь с энтропией/хаосом

  • В теории Шеннона количество информации — это, насколько сообщение уменьшает нашу неопределённость о состоянии источника.

  • Для редкого события с вероятностью p информация велика: I=log2pI = -\log_2 p бит. (Неожиданное — информативнее.)

  • Для источника, который выдаёт много равновозможных исходов, средняя неопределённость равна энтропии Шеннона HH. Это и есть среднее количество информации на символ/сообщение.

Интуиция про “хаос”:

  • Чем выше энтропия источника, тем непредсказуемее его выход и тем больше информации несёт каждый наблюдаемый результат.

  • Полный порядок (всегда один и тот же символ) → энтропия ~ 0, информация в каждом символе ~ 0.

  • «Белый шум» с равными вероятностями → энтропия максимальна, каждый символ даёт максимум битов, но смысловой ценности может не быть — шенноновская мера не про смысл, а про неопределённость.


  1. Актуализация информации

Приведение сведений к актуальному (современному и релевантному) состоянию: обновление устаревших данных, уточнение контекста, снятие неоднозначностей.
Примеры: пересчитать курсы валют на сегодня; заменить «в прошлом году» на конкретную дату; обновить расписание занятий после переноса пар.


  1. Основные свойства информации (часто выделяют набор ниже)

  • Достоверность — соответствует реальности, не содержит искажений.

  • Полнота — достаточно данных для решения задачи, ничего критичного не упущено.

  • Точность — степень приближения к истинным значениям (23.97 °C точнее, чем «около 24»).

  • Актуальность — не устарела, отраж

Something went wrong while generating the response. If this issue persists please contact us through our help center at help.openai.com.

Похожие вопросы

Топ вопросов за вчера в категории Информатика

Последние заданные вопросы в категории Информатика

Информатика 14.10.2025 04:57 26 Бердина Раиса
Информатика 13.10.2025 21:53 20 Кандрина Лера
Информатика 13.10.2025 20:34 13 Калинин Максим
Информатика 13.10.2025 20:27 6 Смирнов Егор
Информатика 13.10.2025 19:26 4 Макаров Максим
Информатика 13.10.2025 19:20 16 Гайнанов Эльнар
Информатика 13.10.2025 18:25 6 Bekenov Daulet
Информатика 13.10.2025 18:16 22 Александровна Вероника
Задать вопрос