інформаційний матеріал

2. Які параметри відображає якісна оцінка інформаційних технологій? Кількісна оцінка?

4. У чому суть процесу оптимізації технологічного процесу? Наведіть приклад критеріїв оптимізації, обґрунтуйте доцільність їх застосування в тому чи іншому випадку.

5. Назвіть вимоги, що пред'являються до технології діалогового рішення. Поясніть їх.

Ентропія - міра невизначеності; універсальна міра невпорядкованості, неорганізованості, хаосу.

Негентропії - міра впорядкованості.

Імовірність - відносна частота певного результату події з безлічі можливих.

Поняття - це найменша одиниця відображення, на основі яких будуються моделі відображуваних об'єктів і процесів.

Ефективність професійної діяльності в чималому ступені залежить від рівня організації інформаційних процесів. З метою підвищення рівня організованості необхідне розуміння природи інформації та специфіки інформаційних процесів, що протікають в економіці.

Людина пізнає навколишній світ за допомогою чуттєвого пізнання і абстрактного мислення. Образ об'єкта в свідомості індивіда суть інформаційна модель об'єкта (суб'єктивне відображення властивостей і характеристик об'єкта). Стану об'єктів, їх зв'язків і взаємодій між собою в конкретний момент часу, що фіксуються індивідом за допомогою органів почуттів, приладів і т.д. - дані.

У професійній діяльності фахівці використовують ті чи інші дані, які набувають особистісну (по відношенню до фахівця) значимість. Дані, що використовуються в процесі вирішення конкретного завдання, стають інформацією (суть прагматичної значущості інформації). Ступінь інформативності даних залежить від того, наскільки повно (з позиції семантичної значущості) і ефективно (з точки зору витрат часу, зусиль і коштів) вони забезпечують процес прийняття рішення.

Інформація є загальна, універсальна властивість матерії, що виражає характер і ступінь її впорядкованості.

Зміни уявлень про інформацію сприяло виникненню «статистичної» теорії інформації. К. Шеннон і Н. Вінер запропонували міру кількості інформації і досліджували її властивості, поклавши в основу поняття ймовірності і невизначеності.

Деяка подія, що має кінцеве число можливих результатів, характеризується невизначеністю, що залежить від числа можливих результатів і ймовірності кожного з них. Невизначеність одного результату може вимірюватися логарифмом його ймовірності, а для події в цілому була запропонована міра невизначеності, яка називається ентропією.

H () = p (Ai) log p (Ai)

Ai - будь-який з можливих результатів події;

p (Ai) - ймовірність результату Ai;

до - вірогідність можливих результатів.

Якщо log p (Ai) - вимірює невизначеність одного результату, то ентропія події має сенс середньої зваженої невизначеності всіх результатів з вагами p (Ai)

Ентропія як міра невизначеності характеризується наступними властивостями:

· При заданій кількості можливих результатів ентропія досягає максимуму, якщо всі результати різновірогідні, і мінімуму, якщо ймовірність одного з виходів прагнути до одиниці;

· Ентропія двох незалежних подій дорівнює сумі кожного з них.

· Якщо події взаємозалежні, тобто результат одного впливає на результат іншого, то ентропія цих подій дорівнює сумі умовної ентропії другого (залежного) події за умови здійснення першого і ентропії першої події.

На підставі введеної міри невизначеності введена міра кількості інформації. яка в теорії інформації трактується як міра усунення або зменшення невизначеності при здійсненні якої-небудь події.

Кількість інформації про результат Ai отримане при здійсненні події, дорівнюватиме:

I (Ai) = log p1 (Ai) - log p0 (Ai) = log

Якщо подія мала результат Ai. то p1 (Ai) = 1, а значить

I (Ai) = log = - log p0 (Ai)

Звідси випливає, що чим більша ймовірність результату до здійснення події, тим менше кількість інформації, що отримується після його здійснення, і навпаки. Чим більше несподівано повідомлення, тим менше воно ймовірно, тим більше інформації воно містить.

Якщо окремий результат Ai події доставляє кількість інформації

то середня кількість інформації, що доставляється вчиненням щодо події, так само:

де H () - ентропія події;

H () - умовна ентропія події за умови здійснення події;

Дані вирази фіксують кількісне (операційне) визначення інформації як міри зменшення невизначеності, що лежить в основі статистичної теорії інформації, характеризуючи міру того нового, що дізнаємося про ймовірне результаті деякої абсолютної інформації події, коли стає відомим результат іншої події, пов'язаного з першим.

Найчастіше дана подія цікавить нас як джерело інформації про інших, пов'язаних з ним події, про які ми не все знаємо. Організовуючи спостереження за економічними процесами, ведучи їх облік, ми тим самим цілеспрямовано організуємо досліди (події), що дозволяють отримати інформацію про інші процеси, які не можна прямо спостерігати або тому, що вони не лежать на поверхні явища, або оскільки їм тільки належить здійснитися.

Інформацію містять не всякі повідомлення, відомості, дані, а лише ті, які зменшують невизначеність щодо результату цікавлять нас подій. Інакше кажучи, інформацію містять лише знову отримані відомості.

Сформульована вище міра інформації заснована на статистичній ймовірності, що розуміється як відносна частота даного результату з безлічі можливих при числі випробувань, що прагнуть до нескінченності. Тому сучасну теорію інформації і називають статистичної. Ця теорія повністю абстрагується від змісту повідомлення, а цінність їх для певного споживача пов'язана лише з одним фактором - несподіванкою.

Розглянута міра інформації не відповідає на питання про її якісної природі, тобто не дозволяє дати змістовного визначення інформації. Пропонуються різні концепції, які в тій чи іншій мірі дозволяють пояснити природу інформаційних процесів в різних областях.

Згідно із звичаєвим поданням інформація з'являється лише в спілкуванні між людьми і є породженням людської свідомості. Інформаційні процеси мають місце в системах будь-якої природи, як живий, так і неживої. Ентропія розглядається при цьому як універсальна міра невпорядкованості, неорганізованості, хаосу. Інформація протистоїть ентропії, протидіє її зростанню і характеризує збільшення організованості. Вона при цьому як би розжарюється і закріплюється в сукупності впорядкованих відносин між їх елементами.

Відображення як атрибут матерії проявляється у взаємодії матеріальних об'єктів, коли вплив одного об'єкта відтворює в іншому ті чи інші властивості першого. На вищих рівнях організації відображення (у людини) вона проявляється в здатності формувати абстрактні поняття, фіксувати складні асоціативні зв'язки між ними, будувати з понять судження і інші надзвичайно складні моделі реальних ситуацій.

Як і матеріально-енергетичні процеси, відображення характеризується різноманітністю. Але на рівні матеріально-енергетичних процесів мірою різноманітності служить ентропія. Їй протистоїть міра впорядкованості, яку французький вчений Л. Брілюена запропонував називати негентропії. На рівні ж відображення, різноманітність позначається поняттям «шум», формально тотожним ентропії, але відмінним від неї за своєю природою. Точно так же розрізняються поняття негентропії і інформація.

Впорядковане відображення реального світу в свідомості людини є знання. Виходячи з цього під інформацією розуміється збільшення знань певного суб'єкта відносного відображуваного об'єкта, що представляє інтерес в плані вирішення якої-небудь задачі.

Знання, як форма упорядкованого відображення, має сильну ієрархічну структуру.

Необхідною елементом в процесі упорядкування відображення є деякий фізичний вплив, спрямоване на відбивну систему і що є матеріальним носієм інформації. Такого роду фізичні впливу називаються сигналами.

У семіотиці (науці про знаки) за способом передачі відображення розрізняють наступні типи сигналів:

· Сигнали - індекси - прояв природних властивостей їх джерел;

· Сигнали-копії - відтворюють зовнішню форму, що відбивається;

· Умовні або просто знаки - це сигнали, які не є ні проявом природних властивостей предметів, ні передають їх зовнішню форму, але здатні бути носіями інформації тільки в силу попередньої домовленості групи одержувачів і відправників сигналів. Переважна маса інформації в суспільстві збирається, передається, обробляється за допомогою знаків.

Економічні дані є не що інше, як знакова уявлення різних відомостей, у тому числі будується відображення економічних процесів. Вивчати економічну інформацію - значить вивчати знаки, за допомогою яких вона представляється.

Знак завжди є матеріальний об'єкт, але не всякий матеріальний об'єкт є знаком. Таким він стає тільки в знаковій ситуації, яка характеризується обов'язковою наявністю таких взаємопов'язаних елементів:

Z - матеріальний об'єкт, що виконує функцію знака (позначення)

а - об'єкт, який позначається знаком, званий тому позначається або предметним значенням знака;

m - одержувач знака, суб'єкт, тобто сприймає система, рівень організації якої дозволяє сприймати Z як позначення а.

S - відображення а в пам'яті сприймає системи в формі понять, суджень та інших зразків, зване смисловим значенням або просто значенням Z.

За цими елементами конкретної знаковою ситуації на другому плані завжди присутні:

Z (zZ) - система знаків або знакова система, в якій є набір різних знаків і правила користування ними, що забезпечують за допомогою відмінності знаків можливість розрізняти позначаються ними об'єкти;

А (АА) - сукупність розкритих об'єктів, кожен з яких отримує своє позначення і з цього позначення може відрізнятися при передачі інформації;

М (mМ) - безліч суб'єктів взаємодіючих між собою і здатних обмінюватися інформацією за допомогою обміну знаками, тобто виступаючих в ролі одержувачів або відправників інформації;

S (sS) - безліч понять, суджень, образів, з яких в пам'яті учнів одержувачів і відправників інформації складається відображення тієї чи іншої середовища, в якій протікає їх практична діяльність.

Цей запас знань останнім часом все частіше позначають терміном тезаурус (як назва системного словника понять).

Одержувач сприймає інформацію, якщо йому зрозумілий зміст повідомлення і його новизна за змістом для конкретної ситуації (семантична сутність інформації). Одержувач може бути не налаштований на сприйняття повідомлення, якщо воно йому не потрібно. У кожен конкретний момент часу одержувач може апріорно оцінювати важливість повідомлень, при цьому його сприйнятливість до інформації буде залежати від їх оцінки. У зв'язку з цим виникає проблема цінності інформації та її оцінки. Неправильна оцінка цінності даних може привести до того, що інформація, об'єктивно дуже цінна для даного одержувача, що не буде сприйнята. Це явище можна також трактувати як специфічний шум, тотожний, однак, фізичній або семантичному шуму.

Переважна частина економічної інформації зберігається, передається і обробляється в формі знаків - алфавітних і цифрових символів, що фіксуються в різних документах і інших повідомленнях. Тому проблематика дослідження системи економічної інформації може бути окреслена досить повно в термінах теорії знакових систем - семіотики.

В рамках семіотики визначилося тріосновних напрямки дослідження інформаційних процесів.

1. Синтактика - вивчає формальні властивості потоків інформації; досліджує відносини між знаками тієї чи іншої знакової системи незалежно від змісту і цінності інформації, носіями якої ці знаки є.

3. Прагматика - вивчає відношення між даними і їх одержувачами; її цікавить вплив повідомлення на поведінку одержувача, тобто визначається цінність даних. Дослідження економічної інформації в прагматичному аспекті вимагає вирішення питання, пов'язаного з відбором тих показників, які необхідні споживачеві.

Прагматичні дослідження відкривають шлях до вирішення практично надзвичайно важливої ​​проблеми раціональної організації системи інформації. Суть якої полягає в тому, щоб, керуючись тими чи іншими критеріями і, беручи до уваги можливості технічних засобів і ін. Ресурсів, використовуваних в процесі збору та обробки даних, визначити найкращу конфігурацію потоків інформації, оптимальний розподіл функцій по їх отриманню і доставці споживачам.

Схожі статті