Размышляю над заданиями для Х-классников, успешное выполнение которых свидетельствовало бы, что тема "Информация" изучена и освоена. Если все свести к решению вычислительных задач, то получается, что разговоры о трудности определения самого понятия, о поиске этого определения, о вкладе замечательных ученых в развитие теории информации оказываются далеко за скобками. В скобках - лишь простейшая (если не вникать в ее суть) формула Хартли, в крайнем случае, Шеннона...
Эти размышления (+ подсказки Александра Юрина + знакомство с кубком Яндекса) оформились в идею поисковой 2-этапной игры.
Этап 1. Найти ответы на вопросы.
Этап 2. Придумать свои вопросы.
При этом на первом этапе необходимо не только дать правильные ответы, но и указать источник информации (ссылка на сайт).
На втором этапе для каждого вопроса должен быть известен правильный(?) ответ и источник этого ответа.
Вопросы первого этапа:
1. Назовите автора и художественное произведение, из которого взята цитата:
"- Материя, энергия и информация - вот три проявления массы, - терпеливо объяснял Донда.
- Согласно законам сохранения, они могут взаимно превращаться. Материя переходит в энергию, энергия и материя нужны для создания информации, а информация может снова обратиться в материю, но только при определенных условиях. Перейдя критическую массу, она исчезнет, будто ее ветром сдуло. Это и есть Барьер Донды, граница прироста знаний. Конечно, их можно накапливать и дальше, но только в разреженном виде. Каждая цивилизация, которая до этого не додумается, попадает в ловушку: чем больше она соберет знаний, тем дальше откатится к невежеству. Знаешь, как близко мы подошли к этому порогу? Если поток информации будет нарастать такими же темпами, то через два года произойдет...".
2. Кто из ученых в своих научных работах 1948-49 годов определил количество информации через энтропию — величину, известную в термодинамике и статистической физике как мера беспорядка системы, а за единицу информации принял то, что впоследствии окрестили "битом", то есть выбор одного из двух равновероятных вариантов. Позже этот ученый любил рассказывать, что использовать энтропию ему посоветовал знаменитый математик Джон фон Нейман, который мотивировал свой совет тем, что мало кто из математиков и инженеров знает об энтропии, и это обеспечит ученому большое преимущество в неизбежных спорах.
3. Приведите определение информации из толковых словарей Даля и Ожегова.
4. Кому из ученых принадлежат слова:"В то время как энтропия является мерой дезорганизованности, информация, переносимая некоторым потоком посланий, определяет меру организованности. Фактически, мы можем определить информацию, содержащуюся в послании, как отрицательную энтропию или отрицательный логарифм вероятности. При этом, чем больше вероятность послания, тем меньше информации оно содержит".
Поиск продолжается...
Эти размышления (+ подсказки Александра Юрина + знакомство с кубком Яндекса) оформились в идею поисковой 2-этапной игры.
Этап 1. Найти ответы на вопросы.
Этап 2. Придумать свои вопросы.
При этом на первом этапе необходимо не только дать правильные ответы, но и указать источник информации (ссылка на сайт).
На втором этапе для каждого вопроса должен быть известен правильный(?) ответ и источник этого ответа.
Вопросы первого этапа:
1. Назовите автора и художественное произведение, из которого взята цитата:
"- Материя, энергия и информация - вот три проявления массы, - терпеливо объяснял Донда.
- Согласно законам сохранения, они могут взаимно превращаться. Материя переходит в энергию, энергия и материя нужны для создания информации, а информация может снова обратиться в материю, но только при определенных условиях. Перейдя критическую массу, она исчезнет, будто ее ветром сдуло. Это и есть Барьер Донды, граница прироста знаний. Конечно, их можно накапливать и дальше, но только в разреженном виде. Каждая цивилизация, которая до этого не додумается, попадает в ловушку: чем больше она соберет знаний, тем дальше откатится к невежеству. Знаешь, как близко мы подошли к этому порогу? Если поток информации будет нарастать такими же темпами, то через два года произойдет...".
2. Кто из ученых в своих научных работах 1948-49 годов определил количество информации через энтропию — величину, известную в термодинамике и статистической физике как мера беспорядка системы, а за единицу информации принял то, что впоследствии окрестили "битом", то есть выбор одного из двух равновероятных вариантов. Позже этот ученый любил рассказывать, что использовать энтропию ему посоветовал знаменитый математик Джон фон Нейман, который мотивировал свой совет тем, что мало кто из математиков и инженеров знает об энтропии, и это обеспечит ученому большое преимущество в неизбежных спорах.
3. Приведите определение информации из толковых словарей Даля и Ожегова.
4. Кому из ученых принадлежат слова:"В то время как энтропия является мерой дезорганизованности, информация, переносимая некоторым потоком посланий, определяет меру организованности. Фактически, мы можем определить информацию, содержащуюся в послании, как отрицательную энтропию или отрицательный логарифм вероятности. При этом, чем больше вероятность послания, тем меньше информации оно содержит".
Поиск продолжается...
Комментариев нет:
Отправить комментарий