Ключові терміни:
байт, біт, дані, знакові моделі, кількість інформації, повідомлення, підсистема, сигнал, система, системологія, структура, інформатика , інформація1 Поняття інформації
У широкому, філософському сенсі «інформація» - це відображення реального світу; у вузькому сенсі «інформація »- це будь-які відомості, що є об'єктом зберігання, передачі і перетворення.
При класифікації об'єктів однієї природи в якості бази для класифікації використовують ті чи інші властивості (набір властивостей) об'єктів.
Властивості інформації:
- релевантність - здатність інформації відповідати потребам (запитам) споживача;
-- повнота - властивість інформації вичерпно (для даного споживача) характеризувати об'єкт та / або процес, що відображається;
- своєчасність - здатність інформації відповідати потребам споживача в потрібний момент часу;
- достовірність - властивість інформації не мати прихованих помилок;
- доступність - властивість інформації, що характеризує можливість її отримання даними споживачем;
- захищеність - властивість інформації, що характеризує неможливість несанкціонованого використання або зміни;
- ергономічність - властивість, що характеризує зручність форми або обсягу інформації з точки зору споживача.
За способом внутрішньої організації інформацію поділяють на дві групи:
- Дані або простий, логічно невпорядкований набір відомостей.
- Логічно впорядковані, організовані набори даних.
У цій групі можна виділити особливо організовану інформацію - знання.
З поняттям інформації тісно пов'язані такі поняття, як сигнал, повідомлення і дані .
Сигнал (від латинського signum - знак) є будь-який процес, що несе інформацію.
Повідомлення - це інформація, представлена в певній формі та призначена для передачі.
Дані (лат. data) - це інформація, подана у формалізованому вигляді і призначена для обробки технічними засобами, наприклад, ЕОМ.
Розрізняють дві форми подання інформації - безперервну і дискретну.
1.1 Поняття кількості інформації
Мірою невизначеності (неповноту знань) в теорії інформації називають ентропією.
Кількість інформації - це числова характеристика сигналу, що відображає ту ступінь невизначеності, яка зникає після отримання повідомлення у вигляді даного сигналу.
Якщо в результаті отримання повідомлення досягається повна ясність в якомусь питанні, говорять, що була отримана повна або вичерпна інформація і необхідності в отриманні додаткової інформації немає. І, навпаки, якщо після отримання повідомлення невизначеність залишилася попередньою, значить, інформації отримано не було (нульова інформація).
Наведені міркування показують, що між поняттями інформація, невизначеність і можливість вибору існує тісний зв'язок.
Кількість інформації, яку можна отримати при відповіді на питання типу «так-ні», називається бітом (англ. bit - скорочене від binary digit - біт).
Біт - мінімальна одиниця кількості інформації, бо отримати інформацію меншу, ніж 1 біт, неможливо. Таким чином, кожне кидання монети дає нам інформацію в 1 біт.
Зв'язок між кількістю інформації і числом станів Системи встановлюється формулою Хартлі .
[TEX]i=\log_{2}{N} [/TEX],
де [TEX]i[/TEX] - кількість інформації в бітах;
[TEX]N[/TEX] - число можливих станів.
Ту ж формулу можна представити інакше: [TEX]N=2^i[/TEX].
Група з 8 бітів інформації називається байтом .
Інформатика - це наука, що вивчає всі аспекти отримання, зберігання, перетворення, передачі і використання інформації. Інформатика стала розвиватися з середини нашого століття, коли з'явилися спеціальні пристрої - комп'ютери, орієнтовані на зберігання і перетворення інформації, і сталася комп'ютерна революція.
1.2 Принципи фон Неймана
Більшість сучасних ЕОМ будується на базі принципів, сформульованих американським ученим, одним із «батьків» кібернетики Дж. фон Нейманом.
Ці принципи зводяться до наступного:
1. Основними блоками фон-неймановської машини є блок управління, арифметико-логічний пристрій, пам'ять і пристрій введення-виведення.
2. Інформація кодується в двійковій формі і розділяється на одиниці, які називаються словами.
3. Алгоритм представляється у формі послідовності керуючих слів, які визначають сенс операції. Ці керуючі слова називаються командами. Сукупність команд, що представляє алгоритм, називається програмою.
4. Програми і дані зберігаються в одній і тій же пам'яті. Різнотипні слова розрізняються за способом використання, але не за способом кодування.
5. Пристрій керування та арифметичний пристрій зазвичай об'єднуються в один, який називається центральним процесором. Вони визначають дії, які підлягають виконанню, шляхом зчитування команд з оперативної пам'яті. Обробка інформації, яка приписана алгоритмом, зводиться до послідовного виконання команд в порядку, однозначно визначеному програмою.
2 Сиcтемологія
Системологія — (від грец. σύστημα — ціле, системне як неподільне, складне як складене з частин; логос (від грец. Λόγος - «слово», «думка», «сенс», «поняття», - як наука), - область науково-практичної діяльності, що вивчає і використовує системність, організацію і самоорганізацію об'єктів, процесів і явищ в природі, науці, техніці, суспільстві і психології особистості, включаючи нову для біофізики (біофізика складних систем) сінергологію.
Таким чином, одним з основних понять системології є система, під якою розуміється стійке матеріальне утворення, що володіє деяким компонентним (елементних) складом і структурою.
Структура - це стійкі взаємозв'язки або взаємодії між елементами системи.
Підсистема - це система, яка в розглядається як неподільний компонент системи вищого рівня.
Між підсистемою і системою існують взаємозв'язки, які й призводять до формування з підсистем системи.
Наприклад, побудова інформаційних систем здійснюється на основі інформаційних взаємозв'язків між її компонентами.
Матеріальні і знакові системи. Програмні системи як різновид знакових
Системи діляться на:
- матеріальні і
- знакові.
Останні, в тій чи іншій мірі відображають перші, називаються їх знаковими моделями.
Наші уявлення про матеріальні утвореннях є знаковими моделями, або знаковими системами, які в свою чергу утворюють ієрархію підсистем.
Поява нової якості у системи називається системним ефектом. Це ж властивість виражається фразою:
«Ціле більше суми своїх частин».
Про системи і підсистемах. В якості ще одного прикладу системи розглянемо об'єкт - персональний комп'ютер (ПК).
Саме поверхневий опис ПК такий: це система, елементами якої є системний блок, клавіатура, монітор, принтер, миша.
Чи можна назвати їх простими елементами?
Звичайно, ні! Кожна з цих частин - це теж система, що складається з безлічі взаємозалежних елементів.
З базового курсу інформатики відомо, що до складу системного блоку входять: центральний процесор, оперативна пам'ять, накопичувачі на жорстких і гнучких магнітних дисках, СD-RОМ, контролери зовнішніх пристроїв та ін. В свою чергу, кожний з цих пристроїв - складна система.
Про системи в науці і системному підході.
Основний сенс дослідницької роботи вченого найчастіше полягає в пошуку системи в предметі його дослідження. Задача всякої науки - знайти системні закономірності в тих об'єктах і процесах, які вона вивчає.