В юридической деятельности



страница1/18
Дата22.05.2018
Размер4.73 Mb.
#22526
ТипКурс лекций
  1   2   3   4   5   6   7   8   9   ...   18

Министерство внутренних дел

Российской федерации

Краснодарский университет

И.Н. Старостенко, Ю.Н. Сопильняк, М.В. Шарпан


ИНФОРМАТИКА И ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ
В ЮРИДИЧЕСКОЙ ДЕЯТЕЛЬНОСТИ

Курс лекций

Краснодар

КрУ МВД России

2012


ББК 32.81

И 74





Рецензенты:



В.О. Осипян, доктор физико-математических наук, доцент (Кубанский государственный университет).

С.А. Вызулин, доктор физико-математических наук, профессор (Краснодарский университет МВД России).

И 74


Информатика и информационные технологии в профессиональной деятельности: курс лекций / сост. И.Н. Старостенко, Ю.Н. Сопильняк, М.В. Шарпан. – Краснодар: Краснодарский университет МВД России, 2012. – 298 с.


В курсе лекций рассматриваются вопросы введения в профессиональные информационные технологии, базовые офисные технологии и основы электронного документооборота в профессиональной деятельности, а также телекоммуникационные технологии, как основа инфраструктуры единого информационного пространства профессиональной деятельности.

Курс лекций предназначен для курсантов и слушателей Краснодарского университета МВД России.

ББК 32.81

© Краснодарский университет МВД России, 2012
Содержание


Раздел 1. Введение в профессиональные


информационные технологии

Тема 1. Основы профессиональных информационных технологий

ОСНОВНЫЕ ВОПРОСЫ:

1.1. Понятие информационных технологий. Терминология и объект информатики.

2.2. Количественная мера информации.

3.3. Понятие энтропии.

4.4. Современные информационные технологии в деятельности МВД России.


1. Понятие информационных технологий. Терминология и объект информатики

Информационные технологии являются важнейшей составляющей информационных отношений и представляют собой процессы, методы поиска, сбора, хранения, обработки, предоставления, распространения информации и способы осуществления таких процессов и методов.

В соответствии с определением ЮНЕСКО, под информационными технологиями понимается комплекс взаимосвязанных, научных, технологических, инженерных дисциплин, изучающих методы эффективной организации труда людей, занятых обработкой и хранением информации.

Целью информационных технологий является производство информации для ее анализа человеком и принятия на ее основе какого-либо решения. Результат применения информационных технологий выражается в использовании информационных продуктов. Примерами информационных продуктов являются программные продукты, банки и базы данных.

Под профессиональными информационными технологиями будем понимать совокупность методов и средств получения, обработки, представления информации, направленных на изменение ее состояния, свойств, формы, содержания и осуществляемых в интересах сотрудников органов внутренних дел.

Информационные технологии реализуются в автоматизированном и традиционном (ручном) видах. Автоматизированные информационные технологии – это технологии, в которых для сбора, передачи, хранения и обработки данных используются методы и средства вычислительной техники и систем связи.

Рассмотрим классификацию информационных технологий. Классификацию систематизируем по следующим признакам (рис. 1):

степень централизации технологического

процесса

тип предметной области

степень

охвата задач управления



класс

реализуемых

технологических операций

тип пользовательского интерфейса

способ

построения сети



КЛАССИФИКАЦИЯ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ

Рис. 1. Классификация информационных технологий

По степени централизации технологического процесса информационные технологии делят на централизованные, децентрализованные и комбинированные технологии. Централизованные технологии характеризуются тем, что обработка информации производится на основном сервере организации, либо в отраслевом или территориальном информационно-вычислительном центре. Децентрализованные технологии основываются на локальном применении средств вычислительной техники, установленных на рабочих местах пользователей для решения конкретной задачи. Децентрализованные технологии не имеют централизованного автоматизированного хранилища данных, но обеспечивают пользователей средствами коммуникации для обмена данными между узлами сети. Комбинированные технологии характеризуются интеграцией процессов решения функциональных задач на местах, с использованием совместных баз данных и концентрацией всей информации в автоматизированном банке данных.

Тип предметной области выделяет функциональные классы задач соответствующих организаций, решение которых производится с использованием современных автоматизированных систем.

По степени охвата автоматизированных информационных технологий выделим автоматизированную обработку данных; автоматизацию функций управления; поддержку принятия решений, предусматривающая применение математических методов и моделей для аналитической работы и формирования прогнозов; электронный офис, как программно-аппаратный комплекс для автоматизации и решения офисных задач; экспертную поддержку, основанную на использовании экспертных систем и баз знаний конкретной предметной области.

По классам реализуемых технологических операций информационные технологии рассматриваются в соответствии с решением задач прикладного характера:



  • работа с текстовыми редакторами;

  • работа с табличными процессорами;

  • работа с системами управления базами данных;

  • работа с графическими объектами;

  • мультимедийные системы;

  • гипертекстовые системы.

По типу пользовательского интерфейса:

  • пакетные: пользователь не влияет на обработку данных;

  • диалоговые: пользователь взаимодействует с вычислительной системой в интерактивном режиме;

  • сетевые: предоставляют пользователю телекоммуникационные средства доступа к территориально удаленным информационным и вычислительным ресурсам.

Способ построения сети:

  • локальные;

  • многоуровневые (иерархические);

  • распределенные.

Информационные технологии можно представить совокупностью трех основных способов преобразования информации: хранения, обработки и передачи. История становления информационных технологий неразрывно связана со становлением и развитием этих трех способов. Эволюция информационных технологий продолжает естественную эволюцию человечества. Освоение каменных орудий помогло сформироваться человеческому интеллекту. Металлические орудия повысили производительность физического труда. Машины механизировали физический труд. На этом пути развития информационные технологии освобождают человека от рутинного умственного труда, усиливают его творческие возможности. Рассмотрим этапы эволюции информационных технологий.

На раннем этапе развития общества профессиональные навыки передавались в основном посредством ритуальных танцев, обрядовых песен, устных преданий и т.д.

Первый этап развития информационных технологий связан с открытием способов длительного хранения информации на материальном носителе. Примерами таких носителей является пещерная живопись, гравировка по кости, числовые нарезки для измерения. Способы хранения информации подвергались совершенствованию, а период до появления инструментов для обработки материальных объектов и регистрации информационных образов на материальном носителе составил около 1 миллиона лет.

Второй этап развития информационных технологий связан с появлением письменности (примерно 6 тысяч лет назад). Эра письменности характеризуется появлением новых способов регистрации на материальном носителе символьной информации. Применение этих технологий позволило осуществлять накопление и длительное хранений знаний. Примерами носителей информации на втором этапе развития информационных технологий являются: камень, дерево, глина, папирус, щелк, бумага. На данном этапе накопление знаний происходит достаточно медленно и связано с трудностями получения доступа к информации.

Начало третьего этапа развития информационных технологий – первая информационная революция – датируется 1445 годом, когда Иоганн Гуттенберг изобрел печатный станок и, тем самым, подвел итог становлению способов регистрации информации. Появление книг открыло доступ к информации широкому кругу людей и интенсифицировало процесс накопления систематизированных по отраслям знаний.

В 1946 году начинается четвертый этап развития информационных технологий, который обусловлен появлением электронной вычислительной машины (ЭВМ) для обработки информации. Именно по этой причине четвертый этап называют второй информационной революцией.

Характерным признаком второй информационной революции является появление впервые за всю историю развития человечества усилителя интеллекта – ЭВМ.

Пятый этап развития информационных технологий связан с развитием способов передачи информации – появление компьютерных сетей. В 1983 году Международная организация по стандартизации разработала систему стандартных протоколов, получившую название модели взаимодействия открытых систем (OSI). Модель OSI представляет собой абстрактную сетевую модель для коммуникаций и разработки сетевых протоколов. Предлагает взгляд на компьютерную сеть с точки зрения измерений. Каждое измерение обслуживает свою часть процесса взаимодействия. Благодаря такой структуре совместная работа сетевого оборудования и программного обеспечения становится гораздо проще и прозрачнее.

Характерным признаком третьей информационной революции является то, что некоторые авторы, анализируя информационные технологии, которые используются в сети Интернет, сравнивают его с нейронной сетью и обсуждают вопрос о возникновении и развитии нейронной сети планеты и становлении планетарного разума.

В Российском законодательстве отношения, возникающие при формировании информационных ресурсов на основе создания, сбора, обработки, накопления, хранения, поиска, распространения информации, при создании и использовании информационных технологий, систем и средств их обеспечения, защите информации регулирует Федеральный закон «Об информации, информационных технологиях и о защите информации» от 27.07.2006 N 149-ФЗ. В данном законе раскрываются различные формы использования современных информационных технологий, таких как информационные системы, информационно-телекоммуникационные сети. В этой связи использование понятия «информационные технологии» в названии нормативного документа будем считать целесообразным и приоритетным по сравнению с применением такого неопределенного понятия, как «информатизация».

Центральное место Федерального закона в системе информационного законодательства Российской Федерации определяет его приоритетную роль в вопросах регулирования информационных отношений и позволяет обеспечить единообразное, системное и обоснованное регулирование информационной сферы, а также создавать правовую основу для реализации государственных задач, связанных с построением в России информационного общества и обеспечением вхождения страны в мировое информационное пространство.

Мы рассмотрели информационные технологии с точки зрения понятия «технология». Теперь обсудим информационные технологии с точки зрения понятия «информации». Начнем с определения информатики.

Информатика (от французского information – информация и automatioque – автоматика) – это отрасль науки, изучающая структуру и общие свойства информации, а также вопросы, связанные с ее сбором, хранением, переработкой, преобразованием, распространением и использованием в различных сферах деятельности.

В широком смысле, информатика (в англоязычном варианте computer science – наука о средствах вычислительной техники) – наука о вычислениях, хранении и обработке информации. Она включает дисциплины, так или иначе относящиеся к вычислительным машинам: как абстрактные, например, анализ алгоритмов, так и довольно конкретные – разработка языков программирования.

Согласно тезису Черча – Тьюринга (утверждение было высказано Алонзо Черчем и Аланом Тьюрингом в середине 1930-х годов), все известные типы вычислительных машин качественно эквивалентны в своих возможностях: любое действие, выполнимое на одной вычислительной машине, также выполнимо и на другой. Данный тезис является фундаментальным эвристическим утверждением, существенным для многих областей науки. Иногда его преподносят как фундаментальный принцип информатики, обращая особое внимание на машину Тьюринга и машину фон-неймановской архитектуры, поскольку они имеют явное сходство с большинством из современных компьютеров. В рамках современной информатики ученые изучают также и другие типы машин, не только практически осуществимые, но и абстрактные математические модели.

Приоритетными направлениями исследований в информатике являются: что можно, что нельзя реализовать в программах (теория вычислимости и искусственный интеллект), каким образом можно решать специфические задачи с максимальной эффективностью (алгоритмы), в каком виде следует хранить и восстанавливать информацию специфического вида (структуры данных), как программы и люди должны взаимодействовать друг с другом (пользовательский интерфейс и языки программирования) и т.п.

Отдельной наукой информатика была признана лишь в 1970-х; до этого она развивалась в составе математики, электроники и других технических наук. Некоторые начала информатики можно обнаружить даже в лингвистике. С момента своего признания отдельной наукой информатика разработала собственные методы и терминологию.

Первый факультет информатики был основан в 1962 году в университете Пердью (Purdue University). Сегодня факультеты и кафедры информатики имеются в большинстве университетов мира.

Высшей наградой за заслуги в области информатики является премия Тьюринга.

Основная задача информатики заключается в определении общих закономерностей, в соответствии с которыми происходит создание научной информации, ее преобразование, передача и использование в различных сферах деятельности человека. Прикладные задачи заключаются в разработке более эффективных методов и средств осуществления информационных процессов, в определении способов оптимальной научной коммуникации с широким применением технических средств.

Информатика разделяется на две части: теоретическую и прикладную.

Теоретическая информатика рассматривает формы и способы получения и использования информационных ресурсов (ИР), его законы и проблемы, изучает общие свойства, присущие всем разновидностям конкретных информационных технологий (ИТ) и сред их протекания.

Необходимо отметить, что теоретическая информатика включает ряд самостоятельных направлений, которые, по степени близости решаемых задач, можно условно разделить на пять классов:

• Математическая логика

• Программирование

• Теория информации

• Системный анализ

• Теория принятия решений

Высшим результатом развития теоретической информатики является создание искусственного интеллекта.

Прикладная информатика изучает конкретные разновидности ИТ, определяя для них общие и различные черты. При этом появляются новые ветви прикладной информатики: экспертные системы, диагностические комплексы, управляющие системы и др.

Результатом деятельности прикладной информатики является создание ИТ различного назначения.

Каждая наука имеет свой предмет для изучения. Предметом изучения информатики является информация и автоматизированные технологии использования информационного ресурса в многогранной деятельности людей.

Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение. Несмотря на широкое распространение, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока оно во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности.

Существование множества определений информации обусловлено сложностью, специфичностью и многообразием подходов к толкованию сущности этого понятия. Существуют 3 наиболее распространенные концепции информации, каждая из которых по-своему объясняет ее сущность.

Первая концепция – концепция К. Шеннона – отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропия) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход, хоть и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике и послужил основой для измерения информации и оптимального кодирования сообщений. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна, неожиданность сообщений.

При таком понимании информация – это снятая неопределенность, или результат выбора из набора возможных альтернатив.

Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым. Он писал, что «информацию несут не только испещренные буквами листы книги или человеческая речь, но и солнечный свет, складки горного хребта, шум водопада, шелест травы».

То есть, информация как свойство материи создает представление о ее природе и структуре, упорядоченности и разнообразии. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать, хранить и перерабатывать.

Третья концепция основана на логико-семантическом подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентирования, активного действия, управления и самоуправления.

Иными словами, информация – это действующая, полезная часть знаний. Представитель этой концепции В.Г. Афанасьев, развивая логико-семантический подход, дает определение социальной информации: «Информация, циркулирующая в обществе, используемая в управлении социальными процессами, является социальной информацией. Она представляет собой знания, сообщения, сведения о социальной форме движения материи и о всех других формах в той мере, в какой она используется обществом...».

Для современного понятия информации характерен содержательный подход. Такой подход к понятию информации впервые появился в фундаментальных работах основоположника кибернетики Н. Винера. Согласно современным представлениям, информация есть некая форма отражения или отображения внешней среды, имеющей одну физическую форму, в так называемое информационное сообщение или модель, имеющие другую физическую форму. Так, например, все многообразие окружающего нас реального мира (вода, земля и т.д.) отражается в мозге человека с помощью одной физической формы, а именно, с помощью электрохимических потенциалов. В компьютере подобное многообразие может быть отражено с помощью высокого и низкого потенциала (нулей и единиц).

Рассмотренные подходы в определенной мере дополняют друг друга, освещают различные стороны сущности понятия информации и облегчают тем самым систематизацию ее основных свойств. Обобщив данные подходы, можно дать следующее определение информации:

Информация – это сведения об объектах и явлениях окружающего мира (их параметрах, свойствах и состоянии), которые воспринимаются, обрабатываются и при этом обязательно уменьшают имеющуюся о них степень неопределенности или неполноты знаний о них.

Информацию, представленную в форме, которая позволяет осуществлять ее преобразование с целью передачи, обработки практического использования, называют сообщением.

Всякое сообщение является совокупностью сведений о состоянии какой-либо материальной системы, которые передаются человеком (или устройством), наблюдающим эту систему, другому человеку (или устройству), не имеющему возможностей получить эти сведения из непосредственных наблюдений. Наблюдаемая материальная система вместе с наблюдателем представляет собой источник информации, а человек или устройство, которому предназначаются результаты наблюдения – получатель информации.

Источник информации может вырабатывать непрерывное или дискретное сообщения. Передача сообщений на расстояние осуществляется с помощью какого-либо материального носителя (бумажный носитель, электронный носитель) или физического процесса (звуковых или электромагнитных волн, тока и т.п.).

Физический процесс, отображающий (несущий) передаваемое сообщение, называется сигналом. Сигналы формируются путем изменения тех или иных параметров физического носителя по закону передаваемых сообщений. Этот процесс изменения параметров сигнала в соответствии с передаваемым сообщением называется модуляцией и осуществляется в системах связи с помощью модулятора.

Информация является объективно существующей реальностью окружающего нас мира и как любой другой объект обладает рядом свойств, позволяющих отличать один информационный объект от другого. Приведем общую классификацию свойств информации (рис. 2).



Свойства информации

Атрибутивные свойства

Прагматические свойства

Динамические свойства

Рис. 2. Свойства информации

К атрибутивным относятся свойства, без которых информация не может существовать. Например, неотрывность информации от физического носителя и языковая природа информации, дискретность, непрерывность.

Под прагматическими будем понимать те свойства, которые проявляются в процессе использования информации и характеризующие степень ее полезности для пользователя. К прагматическим свойствам информации относятся: смысл и новизна, полезность, ценность, кумулятивность, полнота, достоверность, адекватность и другие.

Динамические свойства характеризуют изменение информации во времени. Например, к динамическим свойствам информации относятся рост информации и старение.

2. Количественная мера информации

Количество информации – число, адекватно характеризующее разнообразие (структурированность, определенность, выбор состояний и т.д.) в оцениваемой системе.

Классическая количественная теория информации состояла и ныне состоит из двух частей: теории преобразования сообщений и сигналов (сущность теории заключается в рассмотрении вопросов кодирования и декодирования информации) и теории передачи сообщений и сигналов без шумов и с шумами в канале связи.

Трактовка информации как меры уменьшения неопределенности некоторого случайного процесса дает возможность, используя математический аппарат теории вероятностей и математической статистики, ввести единицу измерения информации и понятие количественной меры информации. Это весьма важно с точки зрения практического использования для понимания процессов передачи и хранения информации. Необходимо отметить, что вероятность конкретного исхода некоторого события непосредственно связана с количеством информации, содержащемся в сообщении об этом исходе.

Считается, что чем более вероятен конкретный исход события, тем меньше информации несет сообщение об этом исходе. Математическая запись данного тезиса выглядит следующим образом:

(i=1...n), (1)

где Ii – количество информации, содержащееся в сообщении об i-ом исходе события, pi – вероятность исхода i-го события.

Из формулы (1) видно, чем выше значение вероятности pi исхода конкретного события, тем меньше будет величина log2(1/pi) и, следовательно, тем меньшее количество информации будет содержаться в информации об исходе данного события.

Введем в рассмотрение случайную величину I, представляющую собой количество информации, содержащееся в сообщении о конкретном исходе того или иного события. В соответствии с формулой (1) данная случайная величина может быть задана следующей таблицей (табл.1):

Таблица 1.


I

log2 1/p1

log2 1/p2



log2 1/pn

Р

p1

p2



pn

Поскольку случайная величина I может принимать множество значений в зависимости от того или иного исхода события, то для ее числовой характеристики (количества информации I в произвольном сообщении об исходе случайного события) принимается ее математическое ожидание или среднее значение:

(2)

подставляя формулу (1) в формулу (2) получим:



(3)

Данная формула была предложена К. Шенноном для определения количества информации в сообщении об исходе случайного события.

Для определения количества информации, содержащемся в сообщении об исходе случайного события в случае, когда все исходы равновероятны, т.е. р1= р2=…= рn формула (3) принимает вид:

I=log2 n (4)

Эта формула была выведена в 1928 г. американским инженером Р. Хартли и носит его имя.

В качестве единицы количества информации, подсчитываемой по формуле (4), принят 1 бит. Бит – минимально возможное количество информации содержится в сообщении об исходе случайного события с двумя равновероятными исходами. Так, полагая в формуле (4) n=2 и р1=р2=0,5 получим:

I=log2 2=1 (бит).

Проиллюстрируем это на следующих примерах.



Бросание одной монеты. До момента бросания монеты имеется неопределенность исхода данного события, смысл которой заключается в том, что потенциально возможны два варианта исходов бросания, т.е. n=2 (табл. 2):

Таблица 2



Вариант

Исход бросания

Код сообщения

1

«орел»

1

2

«решка»

0

Закодированное информационное сообщение представляет собой последовательность из одного двоичного символа (табл. 2). В этом случае любое из этих двух сообщений (0 или 1) уменьшает неопределенность ровно в два раза. Применяя для данного примера формулу Хартли, получим:



I=log2 2=1 (бит).

Таким образом, сообщение об исходе бросания одной монеты несет в себе количество информации равное 1 бит. Иными словами, 1 бит есть та минимальная порция информации, которая уменьшает исходную неопределенность в два раза в линейном масштабе.



Бросание одновременно трех монет. До момента бросания монет имеется неопределенность исхода данного события, смысл которой заключается в том, что потенциально возможны восемь вариантов исходов бросания, т.е. n=8 (табл. 3).

В этом случае закодированное информационное сообщение представляет собой последовательность из трех двоичных символов (табл. 3). Применяя для рассматриваемого примера формулу (4), получим:



I=log2 8=3 (бит)

Таблица 3



Вариант

1-ая монета

2-ая монета

3-я монета

Код

сообщения



1

«орел»

«орел»

«орел»

111

2

«решка»

«решка»

«решка»

000

3

«орел»

«решка»

«решка»

100

4

«орел»

«орел»

«решка»

110

5

«орел»

«решка»

«орел»

101

6

«решка»

«орел»

«орел»

011

7

«решка»

«решка»

«орел»

001

8

«решка»

«орел»

«решка»

010

Таким образом, любое сообщение об исходе бросания трех монет несет в себе количество информации, равное трем битам, т.е. уменьшает неопределенность об исходе данного события ровно в восемь раз (в линейном масштабе).

Интересно, что согласно классической теории информации, сообщение об исходе бросания одновременно трех монет несет в себе в три раза больше информации (в логарифмическом масштабе), чем сообщение об исходе бросания одной монеты (3 бита и 1 бит).

Следует отметить, что в компьютерной технике при передаче сообщений по линиям связи в качестве случайных событий выступают передаваемые последовательности нулей и единиц, представляющие собой закодированные (т.е. представленные в цифровой форме) текстовые, числовые, графические, звуковые и другие сообщения. Данные последовательности имеют различную (случайную) длину и различный (случайный) характер чередования нулей и единиц.

Если под исходом случайного события понимать конкретный вид последовательности нулей и единиц в передаваемом сообщении, то данные исходы не являются равновероятными и, следовательно, для определения количества содержащейся в них информации нельзя использовать формулу Хартли. Как следствие, в этом случае нельзя использовать в качестве единицы информации 1 бит.

Таким образом, единица измерения 1 бит малопригодна на практике для определения количества информации, содержащейся в сообщении в классическом понимании этого термина (мера уменьшения неопределенности). Гораздо чаще, если не всегда, в компьютерной технике бит выступает в качестве элементарной единицы количества или объема хранимой (или передаваемой) информации безотносительно к ее содержательному смыслу.

Количество информации в 1 бит является слишком малой величиной, поэтому наряду с единицей измерения информации 1 бит, используется более крупные единицы:

1байт=23 бит=8 бит.

1 килобайт (1 Кбайт) = 210 байт = 1024 байт,

1 мегабайт (1 Мбайт) = 210 Кбайт = 1024 Кбайт,

1 гигабайт (1 Гбайт) = 210 Мбайт=1024 Мбайт,

1 терабайт (1 Тбайт) = 210 Гбайт (1024 Гбайт),

1 петабайт (1 Пбайт) = 210 Тбайт (1024 Тбайт).

В компьютерной и телекоммуникационной технике в битах, байтах, килобайтах, мегабайтах и т.д. измеряется также потенциальная информационная емкость оперативной памяти и внешних запоминающих устройств, предназначенных для хранения данных (жесткие диски, дискеты, CD-ROM и т.д.).

3. Понятие энтропии

В 1948 году, исследуя проблему рациональной передачи информации через зашумленный коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных шифров.

Понятие энтропии, как меры случайности, введено Шенноном в его статье «A Mathematical Theory of Communication», опубликованной в двух частях в Bell System Technical Journal в 1948 году.

Энтропия (от греч. поворот, превращение) – понятие, впервые возникшее в термодинамике как мера необратимого рассеяния энергии; широко применяется в других областях: в статистической механике – как мера вероятности осуществления состояния системы; в теории информации – как мера неопределенности сообщений; в теории вероятностей – как мера неопределенности опыта, испытания с различными исходами; ее альтернативные трактовки имеют глубокую внутреннюю связь: например из вероятностных представлений об информации можно вывести все важнейшие положения статистической механики.

В термодинамике понятие энтропии было введено немецким физиком Р. Клаузисом (1865), когда он показал, что процесс превращения теплоты в работу подчиняется закономерности – второму началу термодинамики, которое формулируется строго математически, если ввести функцию состояния системы – энтропию. Клаузис также показал важность понятия энтропии для анализа необратимых (неравновесных) процессов, если отклонения от термодинамики равновесия невелики и можно ввести представление о локальном термодинамическом равновесии в малых, но еще макроскопических объемах. В целом энтропия неравновесной системы равна сумме энтропий ее частей, находящихся в локальном равновесии.

Статистическая механика связывает энтропию с вероятностью осуществления макроскопического состояния системы знаменитым соотношением Больцмана «энтропия – вероятность»



(5)

где W – термодинамическая вероятность осуществления данного состояния (число способов реализации состояния), а kB – постоянная Больцмана.

В отличие от термодинамики статистическая механика рассматривает специальный класс процессов – флуктуации, при которых система переходит из более вероятных состояний в менее вероятные и вследствие этого ее энтропия уменьшается. Наличие флуктуаций показывает, что закон возрастания энтропии выполняется только статистически: в среднем для большого промежутка времени.

Понятие энтропии распределения в теории вероятностей математически совпадает с понятием информационной энтропии. Из вероятностной трактовки энтропии выводятся основные распределения статистической механики: каноническое распределение Гиббса, которое соответствует максимальному значению информационной энтропии при заданной средней энергии; и большое каноническое распределение Гиббса – при заданной средней энергии и количестве частиц в системе.

Энтропия в теории информации – мера хаотичности информации, неопределенность появления какого-либо символа первичного алфавита. При отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу.

Энтропия независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле:

(6)

Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.

Таким образом, энтропия события x является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.

Шеннон вывел это определение энтропии из следующих предположений:

мера должна быть непрерывной; т.е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение энтропии;

в случае, когда все варианты равновероятны, увеличение количества вариантов должно всегда увеличивать полную энтропию;

должна существовать возможность сделать выбор в два шага, в которых энтропия конечного результата должна будет являться суммой энтропий промежуточных результатов.

Шеннон показал, что любое определение энтропии, удовлетворяющее этим предположениям, должно быть в форме:

(7)

где K – константа (в действительности нужна только для выбора единиц измерения).

Шеннон определил, что измерение энтропии (), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надежной передачи информации в виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо вычислить математическое ожидания «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка – имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т.д.

В общем случае b-арная энтропия (где b равно 2, 3 ,...) источника с исходным алфавитом и дискретным распределением вероятности определяется формулой:

(8)

Пример 1. Определить энтропию источника сообщений, если он может выдавать n=5 знаков с вероятностями p1=0,4; p2=0,1; p3=0,2; p4=0,1; p5=0,2. (Сумма всех pi=1).

Решение:

Пример 2. Определить энтропию источника сообщений при условии одинаковой вероятности появления каждого из пяти знаков: p(xi)=0,2.

Решение:



Называя функцию Н «энтропия множества вероятностей», Шеннон комментировал это следующим образом: «Меня больше всего беспокоило, как назвать эту величину. Я думал назвать ее «информацией», но это слово слишком перегружено, поэтому я решил остановиться на «неопределенности». Когда я обсуждал все это с Джоном фон Нейманом, тот предложил лучшую идею. Фон Нейман сказал мне: «Вам следует назвать ее энтропией по двум причинам. Во-первых, ваша функция неопределенности использовалась в статистической механике под этим названием, так что у нее уже есть имя. Во-вторых, и это важнее, никто не знает, что же такое эта энтропия на самом деле, поэтому в споре преимущество всегда будет на вашей стороне».

4. Современные информационные технологи в деятельности МВД России

В Министерстве внутренних дел Российской Федерации вопросами формирования современной информационной и телекоммуникационной инфраструктуры занимается созданный в марте 2011 года Департамент информационных технологий, связи и защиты информации МВД России.

Одной из приоритетных задач данного подразделения является создание на принципиально новом техническом уровне единой системы информационно-аналитического обеспечения деятельности МВД России – ИСОД.

ИСОД должна быть создана на базе единой информационно-телекоммуникационной системы (ЕИТКС). В данную систему уже заложены основы ведомственной инфраструктуры и обеспечен базовый уровень технического оснащения подразделений органов внутренних дел Российской Федерации. Так, в настоящее время более 5000 объектов органов внутренних дел подключены к единой интегрированной мультисервисной сети и обеспечены стандартным комплексом современных услуг связи и доступом к ведомственным информационным системам. Необходимо отметить, что созданию ИСОД послужило ряд причин. Во-первых, это отсутствие единых архитектурных решений и системного подхода к внедрению автоматизированных систем, что привело к тому, что на рабочих местах сотрудников органов внутренних дел Российской Федерации используются разные программы, порой несовместимые между собой. Во-вторых, ЕИТКС создавалась без учета современных тенденций, их использование предполагало установку программ непосредственно на рабочих местах пользователей и серверах локальных сетей, а также создание отдельных центров обработки данных на территориальном и региональном уровнях, что влечет за собой высокую стоимость обслуживания, низкую надежность и недостаточную производительность.

Среди первоочередных задач создания ИСОД является разработка комплексной программы создания ведомственной системы информационно-аналитического обеспечения деятельности органов внутренних дел на 2012-2014 годы; введение в опытную эксплуатацию первой очереди единой информационной системы централизованной обработки данных и реализация на ее базе системы ведомственного электронного документооборота и обмена сообщениями электронной почты.

Кроме того, в настоящее время продолжается разработка типового программно-технического решения на базе единого интегрированного банка данных, которое будет обеспечивать автоматизацию повседневных функциональных обязанностей сотрудников органов внутренних дел. Эта программа должна обеспечить унификацию экранных форм, форм отчетов, интеграцию учетов, доступ сотрудников органов внутренних дел к информации и т.д.

В настоящее время одним из важнейших модернизационных проектов государства является переход с 1 октября 2011 года федеральных органов исполнительной власти на межведомственное электронное взаимодействие при предоставлении государственных услуг (функций). Всего по линии МВД России в Сводный реестр включено 48 государственных услуг (функций), 11 из которых требуют межведомственного электронного взаимодействия.

Еще одним крупным телекоммуникационным проектом, в реализации которого с 2004 года принимает участие Министерство, является создание и развитие государственной системы изготовления, оформления и контроля паспортно – визовых документов нового поколения (Система). В рамках создания системы в 2011 проведены работы по оснащению программно – техническими средствами наиболее значимых объектов первой очереди системы с интенсивным транспортным и пассажирским потоком. В том числе для проведения олимпийских игр 2014 года, летней универсиады 2013 года, саммита АТЭС в 2012 году.

Также продолжается работа по внедрению цифровых технологий в ведомственных сетях радиосвязи. В 2011 году проведены мероприятия по дооснащению цифровых систем подвижной радиосвязи органов внутренних дел в Казани, Владивостоке, Ярославле, а также развертыванию цифровых систем подвижной радиосвязи в Нижнем Новгороде, Самаре, Сочи.

Кроме этого проводятся работы в части, касающейся создания и развития крупных государственных информационных систем – Система-112 и «ГЛОНАСС», а также аппаратно–программных комплексов «Безопасный город».

Система-112 предназначена для обеспечения оказания экстренной помощи населению при угрозах для жизни и здоровья, а также для уменьшения материального ущерба при несчастных случаях, авариях, пожарах, нарушениях общественного порядка и при других чрезвычайных происшествиях и чрезвычайных ситуациях, а также для информационного обеспечения единых дежурно-диспетчерских служб, дежурно-диспетчерских служб экстренных оперативных служб.

Использование «ГЛОНАСС» предоставляет принципиально новые возможности для решения задач в сфере обороны и безопасности, позволяет контролировать маршруты патрулирования в реальном времени, оперативно принимать решения по направлению к месту совершения преступления ближайших нарядов, сопровождать перевозки особо опасных и ценных грузов, а также пассажиров и спецконтингент.

Анализ принимаемых мер по внедрению в охрану общественного порядка АПК «Безопасный город» свидетельствует о повышении эффективности управления силами и средствами, координации деятельности нарядов на территории обслуживания, а также организации мониторинга обстановки, что положительно влияет на оперативную обстановку в целом по стране.

Нормативной базой для проведения крупномасштабных работ по компьютеризации ОВД является Концепция информатизации органов внутренних дел Российской Федерации и внутренних войск МВД России до 2012 года, которая определяет цели, задачи, принципы и основные направления в области информатизации органов внутренних дел и внутренних войск МВД России, учитывает тенденции развития информационных технологий как в Российской Федерации, так и за рубежом, особенности и возможности их применения в деятельности МВД России. Целью Концепции является определение основных направлений совершенствования информационно-аналитического обеспечения деятельности органов внутренних дел Российской Федерации и внутренних войск Министерства внутренних дел Российской Федерации до 2012 года, повышающих эффективность оперативно-служебной, служебно-боевой и административно-хозяйственной деятельности на основе применения современных информационных технологий и систем.

При реализации Концепции используется системный подход к разработке и эффективному использованию информационных технологий и систем в интересах подразделений системы Министерства на основе выработки и реализации единой научно-технической политики. На основе создаваемых автоматизированных информационных систем и специализированных территориально-распределенных автоматизированных систем формируются информационные ресурсы специального назначения, ориентированные на использование в подразделениях органов внутренних дел по направлениям оперативно-служебной деятельности ОВД.

Тема 2. Вычислительные основы информационных технологий


Каталог: upload -> site119 -> folder widepage -> 006 -> 580 -> 686
580 -> Вопросы для подготовки к зачету по дисциплине «Уголовно-процессуальное право
580 -> Методические рекомендации по изучению учебной дисциплины «Гражданское право»
580 -> Лекция тема Правовые основы и особенности расследования преступлений в сфере компьютерной информации
580 -> №1 введение в курс судебной медицины
580 -> Методические рекомендации по изучению дисциплины «История государства и права зарубежных стран»
580 -> Курс лекций Краснодар 2015 Одобрено ббк 67. 408 редакционно-издательским советом
686 -> Лекция «Понятие об основах анатомии и физиологии»


Поделитесь с Вашими друзьями:
  1   2   3   4   5   6   7   8   9   ...   18




База данных защищена авторским правом ©www.vossta.ru 2022
обратиться к администрации

    Главная страница