Інформатика і системологія

Тема 1 Загальні положення інформатики. Поняття системології.

Стислий конспект


Ключові терміни:

байт, біт, дані, знакові моделі, кількість інформації, повідомлення, підсистема, сигнал, система, системологія, структура, інформатика , інформація

1 Поняття інформації

 

У широкому, філософському сенсі «інформація» - це відображення реального світу; у вузькому сенсі «інформація »- це будь-які відомості, що є об'єктом зберігання, передачі і перетворення. 

При класифікації об'єктів однієї природи в якості бази для класифікації використовують ті чи інші властивості (набір властивостей) об'єктів.  

Властивості інформації:  

релевантність - здатність інформації відповідати потребам (запитам) споживача;  

-повнота - властивість інформації вичерпно (для даного споживача) характеризувати об'єкт та / або процес, що відображається;  

своєчасність - здатність інформації відповідати потребам споживача в потрібний момент часу;  

достовірність - властивість інформації не мати прихованих помилок;  

доступність - властивість інформації, що характеризує можливість її отримання даними споживачем;  

захищеність - властивість інформації, що характеризує неможливість несанкціонованого використання або зміни;  

ергономічність - властивість, що характеризує зручність форми або обсягу інформації з точки зору споживача. 


За способом внутрішньої організації інформацію поділяють на дві групи: 

  1. Дані або простий, логічно невпорядкований набір відомостей. 
  2. Логічно впорядковані, організовані набори даних.

У цій групі можна виділити особливо організовану інформацію - знання. 

З поняттям інформації тісно пов'язані такі поняття, як  сигнал, повідомлення і дані . 

Сигнал (від латинського signum - знак) є будь-який процес, що несе інформацію.

Повідомлення - це інформація, представлена ​​в певній формі та призначена для передачі. 

Дані (лат. data) - це інформація, подана у формалізованому вигляді і призначена для обробки технічними засобами, наприклад, ЕОМ. 

Розрізняють дві форми подання інформації - безперервну і дискретну.

 

1.1 Поняття кількості інформації

Мірою невизначеності (неповноту знань) в теорії інформації називають ентропією.

Кількість інформації - це числова характеристика сигналу, що відображає ту ступінь невизначеності, яка зникає після отримання повідомлення у вигляді даного сигналу.

Якщо в результаті отримання повідомлення досягається повна ясність в якомусь питанні, говорять, що була отримана повна або вичерпна інформація і необхідності в отриманні додаткової інформації немає. І, навпаки, якщо після отримання повідомлення невизначеність залишилася попередньою, значить, інформації отримано не було (нульова інформація). 

Наведені міркування показують, що між поняттями інформація, невизначеність і можливість вибору існує тісний зв'язок.

Кількість інформації, яку можна отримати при відповіді на питання типу «так-ні», називається бітом (англ. bit - скорочене від binary digit - біт). 

Біт - мінімальна одиниця кількості інформації, бо отримати інформацію меншу, ніж 1 біт, неможливо. Таким чином, кожне кидання монети дає нам інформацію в 1 біт.

 Зв'язок між кількістю інформації і числом станів Системи встановлюється формулою Хартлі .

[TEX]i=\log_{2}{N} [/TEX],

де [TEX]i[/TEX] - кількість інформації в бітах;

[TEX]N[/TEX] - число можливих станів. 

Ту ж формулу можна представити інакше: [TEX]N=2^i[/TEX]. 

 Група з 8 бітів інформації називається байтом .  

Інформатика  - це наука, що вивчає всі аспекти отримання, зберігання, перетворення, передачі і використання інформації. Інформатика стала розвиватися з середини нашого століття, коли з'явилися спеціальні пристрої - комп'ютери, орієнтовані на зберігання і перетворення інформації, і сталася комп'ютерна революція.

1.2 Принципи фон Неймана

Більшість сучасних ЕОМ будується на базі принципів, сформульованих американським ученим, одним із «батьків» кібернетики Дж. фон Нейманом. 
Ці принципи зводяться до наступного: 

1. Основними блоками фон-неймановської машини є блок управління, арифметико-логічний пристрій, пам'ять і пристрій введення-виведення. 

2. Інформація кодується в двійковій формі і розділяється на одиниці, які називаються словами. 

3. Алгоритм представляється у формі послідовності керуючих слів, які визначають сенс операції. Ці керуючі слова називаються командами. Сукупність команд, що представляє алгоритм, називається програмою. 

4. Програми і дані зберігаються в одній і тій же пам'яті. Різнотипні слова розрізняються за способом використання, але не за способом кодування. 

5. Пристрій керування та арифметичний пристрій зазвичай об'єднуються в один, який називається центральним процесором. Вони визначають дії, які підлягають виконанню, шляхом зчитування команд з оперативної пам'яті. Обробка інформації, яка приписана алгоритмом, зводиться до послідовного виконання команд в порядку, однозначно визначеному програмою.

 

2 Сиcтемологія

 

Системологія — (від грец. σύστημα —  ціле, системне як неподільне, складне як складене з частин; логос (від грец. Λόγος - «слово», «думка», «сенс», «поняття», - як наука), - область науково-практичної діяльності, що вивчає і використовує системність, організацію і самоорганізацію об'єктів, процесів і явищ в природі, науці, техніці, суспільстві і психології особистості, включаючи нову для біофізики (біофізика складних систем) сінергологію.

Таким чином, одним з основних понять системології є система, під якою розуміється стійке матеріальне утворення, що володіє деяким компонентним (елементних) складом і структурою.

Структура - це стійкі взаємозв'язки або взаємодії між елементами системи.

Підсистема - це система, яка в розглядається як неподільний компонент системи вищого рівня.

Між підсистемою і системою існують взаємозв'язки, які й призводять до формування з підсистем системи. 

Наприклад, побудова інформаційних систем здійснюється на основі інформаційних взаємозв'язків між її компонентами. 

  Матеріальні і знакові системи. Програмні системи як різновид знакових 


Системи діляться на:

Останні, в тій чи іншій мірі відображають перші, називаються їх знаковими моделями.

Наші уявлення про матеріальні утвореннях є знаковими моделями, або знаковими системами, які в свою чергу утворюють ієрархію підсистем.

Поява нової якості у системи називається системним ефектом. Це ж властивість виражається фразою: 

«Ціле більше суми своїх частин». 

Про системи і підсистемах. В якості ще одного прикладу системи розглянемо об'єкт - персональний комп'ютер (ПК). 

Саме поверхневий опис ПК такий: це система, елементами якої є системний блок, клавіатура, монітор, принтер, миша.

Чи можна назвати їх простими елементами?

Звичайно, ні! Кожна з цих частин - це теж система, що складається з безлічі взаємозалежних елементів.

З базового курсу інформатики відомо, що до складу системного блоку входять: центральний процесор, оперативна пам'ять, накопичувачі на жорстких і гнучких магнітних дисках, СD-RОМ, контролери зовнішніх пристроїв та ін. В свою чергу, кожний з цих пристроїв - складна система.

Про системи в науці і системному підході.

Основний сенс дослідницької роботи вченого найчастіше полягає в пошуку системи в предметі його дослідження. Задача всякої науки - знайти системні закономірності в тих об'єктах і процесах, які вона вивчає.


© 2017 СумГУ
created with Lectur'EDbeta