Допомога у написанні освітніх робіт...
Допоможемо швидко та з гарантією якості!

Основные закономірності розвитку комп'ютерних систем

РефератДопомога в написанніДізнатися вартістьмоєї роботи

Із ж сучасного можна назвати мультимедійні технології. Спочатку візьмемо самі звукові плати. Ще нещодавно вони були тотально апаратними, а сьогодні будь-яка сучасна плата обов’язково котрі чи інакше використовує ресурси системи (наприклад, WT-таблицы для синтезу MIDIмузики). Крім здешевлення кінцевої системи, це теж дозволило отримати більшу гнучкість у функціонуванні. Кілька років тому з’явилася… Читати ще >

Основные закономірності розвитку комп'ютерних систем (реферат, курсова, диплом, контрольна)

Міністерство загального характеру і професійного образования.

Російської Федерации.

КУБАНСЬКИЙ ДЕРЖАВНИЙ ТЕХНОЛОГИЧЕСКИЙ.

УНИВЕРСИТЕТ.

Кафедра обчислювальної техніки та автоматизованих систем управления.

ПОЯСНЮВАЛЬНА ЗАПИСКА до курсової работе.

по дисциплине.

" Інформатика «.

на тему.

«Основні закономірності розвитку комп’ютерних систем».

|Выполнил студент гр.|01-КТ-21 Воловиков О. П. | | | | |Допущений до захисту | | |Керівник проекту |професор, к.т.н., Частиков О. П. | |Нормоконтроллер | | | |(підпис, дата, розшифровка підписи) |.

Защищен ___________________ Оценка___________________.

(дата).

|Члены комісії | | | | | | | | | |(підпис, дата, розшифровка підписи) |.

КУБАНСЬКИЙ ДЕРЖАВНИЙ ТЕХНОЛОГИЧЕСКИЙ.

УНИВЕРСИТЕТ.

Кафедра обчислювальної техніки та автоматизованих систем управления.

Зав. кафедрой.

професор, д.т.н.________Ключко В.И.

ЗАДАНИЕ.

на курсове проектирование.

Студентові: 01-КТ-21 групи 1 курсу факультету КТАС спеціальності 2204.

Воловикову О.П.

(ф.и.о. шифр) Тема проекту: «Основні закономірності розвитку комп’ютерних систем».

Содержание завдання: виявити основні тенденції і закономірності розвитку комп’ютерних систем (з урахуванням їх сучасного состояния) Объем роботи: пояснювальну записку нині проектом: 23 аркуша формату А4.

Рекомендуемая література: Частиков А. П. Історія компьютера.

Термін виконання проекту: з «___ «_________ по «___ «________2001 р. Термін захисту: «___ «________2001 р. Дата видачі завдання: «___ «________2001 р. Дата здачі проекту на кафедру: «___ «________2001 г.

Руководитель проекту: професор, к.т.н., Частиков А.П.

Задание прийняв студент.

(подпись, дата).

РЕФЕРАТ.

«Основні закономірності розвитку комп’ютерних систем».

Автор: студент групи 01-КТ-21 Воловиков О. П. Науковий керівник: професор, к.т.н., Частиков А.П.

Объем роботи: 23 л. У ілюстрацій: 1 У таблиць: 0 У джерел: 5.

Перечень ключових слів: «комп'ютерні системи», «розвиток комп’ютерів», «закономірність», «еволюція», «історія», «тенденції», «апаратні средства».

Основные характеристики работы:

Ця робота є результат невеличкий дослідницької діяльності, метою котрої є виявлення основних закономірностей і тенденцій, прослеживающихся у процесі більш як п’ятдесятилітнього розвитку комп’ютерних систем.

У процесі написання реферату використовувалися науково-популярні дослідження (опубліковані деяких комп’ютерних часописах Nature і webвиданнях) різних спеціалістів у галузі інформаційних технологій, а також дані, узяті з власного досвіду автора, причому наголос було зроблено на сучасний стан аналізованої області. Наведені затвердження ілюструються достатню кількість яскравих і зрозумілих примеров.

Необхідно також відзначити, що виявлені закономірності й не підтверджуються математичними висновками або будь-якими теоріями, та їх істинність полягає в багаторічному досвіді розвитку інформаційних технологій, і навіть підтверджується аналітичними роботами багатьох незалежних исследователей.

|1 Запровадження |5 | | | | |2 Більшість |7 | |2.1 Успадкування основних принципів організації |7 | |2.2 Вещественно-энергетическая і інформаційна цілісність |7 | | |8 | |2.3 Підвищення функціональної і структурної цілісності КС |8 | | | | |2.4 Успадкування основних функцій та розвитку систем |9 | |2.5 Адекватність функционально-структурной організації призначенню |9 | |системи |11 | |2.6 Взаємозв'язок показників якості комп’ютерних систем |12 | |2.7 Відносне і тимчасове розв’язання суперечностей в КС | | | |14 | |2.8 Апаратні й програмні вирішення |15 | | |16 | |2.9 Удосконалення технологій створення КС, і навіть їх | | |наступність |22 | | | | |2.10 Падіння вартості на комп’ютери |23 | | | | |2.11 Майбутні напрями розвитку функцій, реалізованих КС | | | | | |3 Укладання | | | | | |4 Список використаних джерел | |.

1 Введение.

Перші обчислювальні машини, розроблені до початку п’ятдесятих років, дістали назву ЕОМ першого покоління. (Класифікація по поколінням переважно ставилася до технології виробництва компонентів. Перше покоління — електронні лампи, друге — транзистори, третє - мікросхеми.) Тоді ж формуються дві основні напрями у архітектурі цифрових обчислювальних машин — мэйнфреймы (mainframes) і мини-ЭВМ. Останні з’явилися торік у 1955−1956 рр. Серед фірм, які зосередили свої зусилля у цій галузі, можна назвати Burroughs (комп'ютер E-101), Bendix (G-15), Librascope (LGP-30). Принциповою відмінністю першого покоління малих ЕОМ від сучасних «персоналок» є фіксована конфігурація апаратних коштів. Управління зовнішніми пристроями було централізованим, і підключити якесь нове обладнання було неможливо. Незручність такий підхід мабуть, і на більш пізніх модифікаціях G-15 цей недолік був усунутий. Пам’ять на магнітному барабані не допускала розширення, і користувач отримував у своє розпорядження наступний ресурс: 220 12-разрядных десяткових слів у E-101; 2176 29-разрядных двійкових слів у G-15; 4096 32-разрядных двійкових слів у LGP-30. З характеристик видно, що байтовый формат даних в 50-ті роки ще був стандартом. Система команд LGP-30 включала в себе 16 команд, G-15 надавала програмісту великі можливості (більш 100 команд). Програмування найчастіше велося у машинних кодах.

Проте, говорячи про обчислювальної техніки того часу, необхідно згадати про іншому, не схожому на сучасні комп’ютери принципі побудови ЕОМ — аналоговому чи аналого-цифровом. Кошти обчислювальної техніки, що використовувалися тоді складі систем автоматики, були тільки аналоговими. Близькість цих наукових напрямів посилювалася і те, що проектування аналогових обчислювальних машин спиралося ту теоретичну базу, як і проектування систем управління. Стійкість системи автоматичного управління і відповідність обчислювального процесу у аналогової машині були дуже схожі зі свого опису. Хоча сьогодні аналогова обчислювальної техніки як різновид комп’ютерів, і немає, але на методи вирішення завдань, накопичені за досить довгу історію побутування цих обчислювальних машин, використовують у устаткуванні, заснованому на застосуванні процесорів цифровий обробки сигналів (ЦГЗ). А розвиток цифрових обчислювальних машин, що згодом отримали славнозвісне ім'я комп’ютери, починаючи з п’ятдесятих років нерозривно пов’язане з розробкою програмного обеспечения.

У цей історичний період існували програмісти, котрі розглядали кошти автоматизації своєї праці як інструмент для ледачих, портящий якість продукції — тобто прикладної програми. Потрібно сказати, що на той час ці твердження справді підтверджувалися практикою, яка, як відомо, є критерієм істини. Також, як аналогові машини за багатьма показниками перевершували цифрові, і програми, написані у машинних кодах, виявлялися коротше, ніж результат трансляції програм, підготовлених з допомогою алгоритмічних мов. Отже, правильний шлях у роки визначала не практична кмітливість, а здатність вгадати прогрес в суміжних областях. У дусі часу можна було навіть поставити марксистську концепцію про роль практики в іронічні лапки, б і в Євангелії не було прямої вказівки на те що, що пророків істинних треба відрізняти від пророків хибних у справах, тобто за практиці. Тому думати іронізувати щодо хибних наукових ідей п’ятдесятих років. Саме роки було запропоновано алгоритмічний мову FORTRAN, який одержав згодом іронічну назву «безсмертний». Вже починає створюватися програмне забезпечення як досить значних бібліотек стандартних подпрограмм.

Багато часу відтоді, і можна по-різному говорити про технологічних напрямах піввікової давності і чи мали вони той або інший успіх. Проте очевидно одне: ті п’ятдесят із лишком років комп’ютерна індустрія, а із нею і аналізовані у цій роботі комп’ютерні системи (КС) зазнали безліч кількісних і якісних змін. Ми ж, власне, спробуємо певною мірою простежити шлях еволюції виявити найважливіші закономірності в розвитку цих систем, спираючись якнайбільше на нинішній стан справ у даної отрасли.

2 Основна часть.

2.1 Успадкування основних принципів организации.

У основі функціональної організації ЕОМ усіх ґенерацій лежить загальний принцип програмного управління (в 50-ті роки теоретично пропонується принцип микропрограммного управління, практична реалізація частку якого припадає наступний десятиліття; зазвичай цей фундаментальний принцип організації підсистеми управління ЕОМ пов’язують із роботами Уїлкса (Wilkes M.V.), розробленими у 1951 року) і двоичного уявлення інформації. Реалізація програмного управління досягається різними структурними схемами, несхожими функціональними властивостями і продуктивністю. Ці принципи, розроблені дуже довго, ще до його появи, якщо так висловитися, перших досить повноцінних комп’ютерів, визначили весь наступний образ комп’ютерних систем. Наслідування цих принципів дозволяє створити універсальні і за можливості простіші апаратні (як утім і програмні) кошти забезпечення обчислювальних машин.

2.2 Вещественно-энергетическая і інформаційна целостность.

Цілісність КС, як і будь-яких технічних систем, обумовлена залежністю що відбуваються у яких речовинних, енергетичних та інформаційних процесів перетворення (обробки), зберігання, обміну (передачі) та управління. У реальних технічних системах процеси перетворення, збереження і обміну речовини, енергії та інформації взаємопов'язані. Управління цими процесами здійснюється інформаційними потоками, материализуемыми речовими і енергетичними носителями.

Ця закономірність вдало ілюструється, зокрема, єдністю і взаємозв'язком енергетичних та інформаційних процесів в елементах вакуумнолампової, напівпровідникової і інтегральної технологій, здійснюють обробку інформацією аналогової чи цифровий формі. При видачі інформації і генерації управляючих впливів формуються відповідні інформаційні послідовності з метою подальшого перетворення на енергетичні і речові на об'єкт управління з відображенням інформації про перебіг процесу (перетворення форми уявлення информации).

У процесі обробки інформації при енергетичному вплив здійснюється переключення логічних запам’ятовувальних елементів процесора і пам’яті. Якщо, своєю чергою, розглядати внутрішню структуру логічних і запам’ятовувальних елементів, неважко помітити, що різним інформаційним змін елементів відповідають певні зміни щодо в структурі речовини, з якого зроблені ці елементи. У напівпровідникових елементах, наприклад, здійснюється зміна провідності p-n-перехода, непоганими прикладами можуть також послужити різноманітні носії інформації: в магнітних наявності двоичного нуля/единицы відповідає певне стан деякою області магнітного речовини, в оптичних під час запису даних відбувається зміна оптичних властивостей поверхні диска. Те ж саме згадати і передачі інформації - в застосовуваних інтерфейсах вона здійснюється з допомогою поширення електромагнітних коливань, тобто энергии.

2.3 Підвищення функціональної і структурної цілісності КС.

Ця закономірність виявляється у функціональної і структурної інтеграції окремих підсистем та скорочення числа проміжних рівнів і видів перетворення речовини, енергії та інформації у процесі функціонування КС.

Функціональна цілісність у її ставлення до зовнішньому оточенню (середовищі) і обумовлюється єдністю і взаємозв'язком функцій системи та її підсистем, а структурна цілісність системи у відношенні її складу, фіксованою сукупності елементів і перетинів поміж ними. У процесі еволюції КС підвищення його цілісності може виражатися в тому, що саме система має можливість перейти в підсистему більш складної системи. Прекрасної ілюстрацією цього положення служить мікропроцесор, що повторив структуру машин попередніх поколінь, і аналізований 70-х рр. лише на рівні системи, надалі перетворився на елемент потужних суперкомпьютеров.

Із близьких нам прикладів можна назвати, скажімо, дискові контролери і периферійні контролери виводу-введення-висновку, тривалий час були окремими пристроями, тепер вбудовуються просто у чипсет, тобто є частиною системної плати. Пригадаємо також процесорний L2 кеш — тепер він становить з ядром CPU єдине ціле, хоча недавно виконувався окремим блоком, а кілька років тому я взагалі встановлювався у спеціальний слот.

2.4 Успадкування основних функцій та розвитку систем.

У процесі розвитку систем певного класу зберігається сукупність їх основних (базових) функцій. Що стосується комп’ютерним системам можна стверджувати: кожне нове комп’ютерне покоління зберігає (відтворює) сукупність основних функцій, реалізованих комп’ютерами попереднього покоління. Які це функції? PMTC — Processing (обробка), Memory (зберігання), Transfer (передача), Control (управління). Усе це зберігається протягом усіх поколінь комп’ютерних систем. Найбільш інтенсивним змін піддаються сервісні функції. Ці зміни спрямовані збільшення продуктивності і моральне вдосконалення інтерфейсу користувача з системой.

Справді, жодного з існуючих типів КС не виконує якихабо функцій, крім вищевказаних. Єдині зміни, які походять з появою нової КС — усе це краще виконання цих функцій: новий РС дедалі швидше виробляє обробку даних, отримані з пристроїв введення, новий сервер має всі ємніше дискову систему, більший обсяг пам’яті і продуктивний CPU, новий комунікаційний стандарт забезпечує велику пропускну спроможність і надежность.

2.5 Адекватність функционально-структурной організації призначенню системы.

Ефективними і життєздатними є системи, структура яких максимально відповідає реальним функцій. Два паралельно які йдуть еволюційних процесу — еволюція функцій і еволюція технологій — стимулюють спрямоване вдосконалення функционально-структурной організації КС. Відомо таке твердження: «У ідеальному разі кожному реализуемому алгоритму відповідає певна структура системи (устрою)». Наприклад, архітектура ігрового комп’ютера повинна відрізнятися від архітектури серверу: якщо у першому разі береться дуже дорогий, але оптимізований під певний набір обчислень процесор, оптимальним чином синхронізовані з нею пам’ять, графічний контролер і устрою введення, причому всі це, швидше за все, пов’язується однієїєдиною загальної шиною, то у другому, очевидно, знадобиться многопроцессорная паралельна обробка, орієнтована на многозадачность, ширший набір шин передачі. Проте очевидно, що безліч алгоритмів практично неможливо відображено відповідний безліч реальних структур.

Але одні й самі функції можуть бути відтворені універсальними і спеціалізованими засобами. Отже, для формування структури КС певного функціонального призначення потрібно вирішувати протистояння між «універсальністю» і «спеціалізацією» всіх рівнях організації системи. Застосування універсальних елементів дозволяє створювати КС з мінімальним структурою (тобто із мінімальним числом елементів), що реалізують задану сукупність функцій (продовжуючи порівняння, на сервері теж, у принципі, якщо можна пограти у Unreal, але навряд це буде доцільно, оскільки тієї ж цілей можна буде потрапити домогтися значно більше простими средствами).

2.6 Взаємозв'язок показників якості комп’ютерних систем.

Основні показники якості КС — характеристики продуктивності, енергетичні характеристики, характеристики надійності та ефективності систем, економічні показники — взаємозв'язані й взаємозалежні. Поліпшення однієї групи показників якості, наприклад збільшення продуктивності, веде погіршення інших — ускладнення структури, збільшення вартості, зниження надійності тощо. д.

Наведемо приклади взаємозв'язок харчування та взаємозалежності показників. Наприкінці 40-х років Р. Гріш сформулював емпіричний закон, за яким пропорційність КС пропорційна квадрату вартості. Отже, щоб виконати деяку обчислювальну роботу у двічі дешевше, її слід виконати учетверо швидше (До. Є. Найт експериментально підтвердив справедливість цього закону для перших трьох поколінь комп’ютерів). Інший приклад взаємозалежності загальної продуктивності векторної супер-ЭВМ від двох режимів її. Відомо, що програми, які можна векторизованы компілятором, виконуються в векторном режимі дуже швидко, а програми, які містять векторного паралелізму (чи котрі компілятор не виявляє), виконуються з низькою швидкістю скалярном режимі. У 1967 р. Дж. Амдал вивів закон, що у такій системі низкоскоростной режим домінує у загальної производительности.

І ще один ближчий і його сучасний нам приклад. Не секрет, що процесори Intel Pentium-4 першого покоління (під Socket-423) мають високе енергоспоживання, велику тепловіддачу і досить-таки значні розміри. Нещодавно у мережі навіть ходили жарти про те, що якщо така буде далі, то майбутньому комп’ютери в обов’язковому порядку постачатимуть з портативної атомної електростанцією і радіатором водяного охолодження в комплекті, а материнська плата буде свариваться з сталевого прокату (тому, що вона розсиплеться від тяжкості комплектуючих). Звісно, в повному обсязі буде так погано, але певний резон у тих зауваженнях справді є. Тому Intel невдовзі перевела процесор більш тонкий техпроцесс, у результаті вдалося зробити його дуже маленьким (набагато менше, ніж CPU їхніх попередників), економічним у плані споживання енергії і виділяє мало тепла. Але з з іншого боку, приблизно до 10% підвищилася вартість вироби (і це як і раніше, що загальна площа чіпа, безпосередньо впливає на вартість, зменшилася). І на суто технологічному плані зміни далися задарма: новий процесор вийшов більш вимогливим до стійкості параметрів харчування, отож мимоволі довелося оснастити його новим (Socket-478) інтерфейсом, де додаткові контакти забезпечують потрібну стабільність напруги, подаваного на процессор.

Або, ще, порівняємо архітектури тих-таки CPU від AMD і південь від Intel. Про другу ми хіба що згадували, тому розглянемо продукцію першої. Відомо, що цей саму продукцію (CPU Athlon різних модифікацій) відрізняє дуже мала проти Pentium вартість при приблизно рівної продуктивності. Чим цього вдалося домогтися? Відповідь: застосуванням менш високих (і тому дешевших), ніж в Intel, технологій виготовлення чипів і удосконаленням внутрішньої архітектури процесора: витончені алгоритми кэширования, оптимізований конвеєр та інші. Приблизно те саме можна згадати і DDR SDRAM. DDR (Double Data Rate) SDRAM по багатьма параметрами і способам виготовлення мало чому відрізняється від звичайній SDRAM: той самий синхронізація шини пам’яті з системної шиною, практично те виробниче устаткування, енергоспоживання, майже відмінне від SDRAM, площа чіпа більше тільки кілька відсотків. Зміни полягають тільки у застосуванні популярною останнім часом у компонентах PC технології передачі одночасно з двох фронтах сигналу, коли за такт передаються одразу дві пакета даних. Що стосується використовуваної 64- бітної шиною це справді дає 16-байтный за такт. Або, у випадку з 133 мегагерцами, не 1064, а 2128 Mb/s. Це й дозволило відразу без значних матеріальних і тимчасових витрат створити нову быстродействующую пам’ять, причому по ціні, мало відрізнялася від звичайній SDRAM (до речі, DDR SDRAM ще іноді називають SDRAM-II). Тобто бачимо, нова пам’ять при найближчому розгляді є вдосконалена стара. Через війну вартість готової системи процессор+память+системная плата від AMD нижче аналогічної від Intel разу хіба що удвічі, але, очевидно, її структурна складність істотно выше.

2.7 Відносне і тимчасове розв’язання суперечностей в КС.

Суперечності, що у КС у процесі їх розвитку, дозволяються тимчасово на певних етапах існування систем конкретного класу тут і в подальшому виявляється у трансформованому вигляді на новому якісному рівні. На різних життєвих циклах КС розробникам припадати вирішувати «вічні» протистояння між функціональними можливостями і що складністю технічну частину системи, між обсягом береженої інформації та швидкодією пристроїв памяти.

У 1960;х років у зв’язку з появою перших мини-компьютеров проблему довжини слова. Відомо: що більше довжина слова, тим більше команд має бути з машини [процесора — тут і далі прим. мої], тим ефективніші реалізується її проблемна орієнтація; що більше довжина слова, тим більша точність обробки даних. Проте вартість машини зростає пропорційно довжині слова. Ці суперечливі чинники служать класичний приклад компромісу під час проектування, коли припадати або поступитися робітниками характеристиками, або від экономии.

До речі, нині дуже типовим прикладом цілої сукупності такого роду компромісів є персональні комп’ютери: у яких використовуються значно більше дешеві, але й повільні, ніж у великих серверах і суперкомп’ютерах, елементи. І це приклад тимчасового протиріччя. Починаючи десь із 486-х процесорів намітився постійно зростаючий розрив голосів на швидкості CPU і RAM. Нинішній рік став роком широкого освоєння чергових нових типів локальної оперативної пам’яті - RDRAM (Rambus DRAM) і вищезгаданої DDR SDRAM (на противагу SDRAM, Rambus використовує вузьку — 16 біт — шину і величезну проти ній частоту — 400 MHz, що, враховуючи також застосовується технологію DDR дає аж 800 MHz). Причина — в їх появу очевидна: при застосуванні старої SDRAM процесор більшу частину часу буде простоювати через неотримання даних (падіння продуктивності загалом 40%-50% під час використання CPU із частотою 1.5- 2.0 GHz). Протиріччя дозволити вдалося, але й ясно, що відбудеться небагато часу, і доведеться знову говорити про необхідність підвищення швидкодії підсистеми памяти.

Отже, процес розвитку комп’ютерних систем — це дозвіл протиріч, з урахуванням спектра труднощів і переліку протиріч, які підлягають разрешению.

2.8 Апаратні й програмні решения.

Як відомо, багато завдань можна вирішити двома принципово різними шляхами — апаратним і програмним. (Природно, зрештою все обчислення реалізуються програмно (причому, що цікаво, під іншим кутом зору можна сказати, що цілком апаратно, тому це важливо), але так званий «програмний» метод виходить з використанні ресурсів центрального процесора і основний пам’яті КС, тоді як «апаратний» припускає наявність іншого спеціалізованого елемента (вв)). Перевага першого полягає, зазвичай, у хорошому быстродействии і незалежності він потужності основних елементів комп’ютера, але він недостатньо гнучкий і досить дорогий, а програмні рішення, навпаки, недорогі, універсальні і легко модернізуються, але вимагає наявності потужного компьютера.

Взагалі, коли бачиш історію розвитку КС, можна назвати цікавий факт: з удосконаленням технологій багато апаратні рішення вживають їх програмні эмуляторы. Прикладів можна навести значна частина. Наприклад, в перших ЕОМ апаратно реалізувався алгоритмічний мову програмування, невдовзі цю функцію стала програмної. Або звернімося так званої «віконною» технології. Першим комерційним «віконним» продуктом був Xerox 8010 (в 1981 року горезвісний під назвою Star). Потім з’явилися Apple LISA (1983 рік) і Macintosh (1984 рік). Після цього відбулася принципова зміна. Наступним продуктом, що реалізують «віконну» технологію, став Topview фірми IBM (1984), його пішли Windows від Microsoft (1985) і пізніше — X Windows System (1987) для UNIX. Ці продукти вже представляли програмні реалізації системи, що забезпечували доступність «віконною» технології на звичайних машинах, не оснащених спеціальної апаратурою. Список прикладів можна продовжити (скажімо, аналогічним шляхом розвивалися текстові редакторы).

Із ж сучасного можна назвати мультимедійні технології. Спочатку візьмемо самі звукові плати. Ще нещодавно вони були тотально апаратними, а сьогодні будь-яка сучасна плата обов’язково котрі чи інакше використовує ресурси системи (наприклад, WT-таблицы для синтезу MIDIмузики). Крім здешевлення кінцевої системи, це теж дозволило отримати більшу гнучкість у функціонуванні. Кілька років тому з’явилася й зараз перебуває в дуже непоганому рівні суто програмна реалізація звуку (AC'97 кодек), що дозволяє за дуже невеликих витратах отримати дуже якісний звук. Також мушу згадати про різноманітних MP3/MPEG1/MPEG2 та інші. декодерах, років 6−8 тому були необхідними пристроями «істинного» мультимедиа-РС (беру слово в лапки оскільки поняття абстрактно і нас дуже швидко змінює власної сутності). Сьогодні ж, коли потужності CPU цілком достатньо для декомпресії MP-потоков, плати MPEG2- декодера хоча й можна знайти у продажу, але нечасто, йдеться про MPEG1-платах, а тим паче апаратних MP3-плеєрах навіть взагалі чули, і поки звучить зараз з меншою мірою смішно. Або ще: програмні модеми, які останнім часом через свою дешевизни отримали повсюдне поширення. Або TV-тюнеры. Або програмні системи відеомонтажу. Або… Загалом, у розвитку (себто підвищення потужності) комп’ютерів спостерігається чимало прикладів витіснення апаратних реалізацій програмними. Проте добре чи погано, точніше, якою мірою добре? Якщо загальному, це дивлячись навіщо. Наприклад, використовувати зараз у РС вищезгадані MPEG-декодеры (нехай і з самим неперевершеним якістю картинки) у самому справі абсурдно, оскільки навіть найбільш кволий з які й нині процесорів чудово справитися з необхідними обчисленнями самостійно, тоді як той самий система відеомонтажу в професійної студії навряд буде програмної - там вартість мало не 128-й критерій, першому плані виступають якість і надійність. І програмні рішення на області звуку також є засобом попри всі випадки життя, хоча в них очевидних переваг. І всякі «выньмодемы» (приношу вибачення за «жаргон», але ці слово разюче точно передає сутність предмета) теж мають багато противників, і автор цих серед них, але не всі ж у магазинах їх великий вибір, отже купують, оскільки дешево. Або, наприклад, мережна сфера: є чимало програм, що реалізують маршрутизацію, кэширование трафіку, організацію мостів та інші., які у цілях економії коштів зазвичай виявляється доцільно застосовувати для невеликих серверів. Але чи будуть вони ці програми як або ефективно працювати на великому серверном комплексі, якого одночасно звертаються тисячі користувачів? Отут уже ніякої процессорной потужності бракуватиме, доведеться використовувати окремі пристрої і підсистеми. Не можна однозначно вирішити поставлене запитання. Але за будь-якого разі перемагає та технологія, котра водночас є найбільш гнучкою, якісної, наскільки можна універсальної і недорогий. Причому час, зазвичай, краще будь-яких прогнозів визначає такі технологии.

Можете заперечити: якою ж загальний виражений перехід від апаратного до програмного, коли ось, скажімо, років десять тому користувачам персоналок не був знайомий термін «графічний співпроцесор» (пригадаємо сумно канувшую в льоту 3Dfx, що нам тривимірний світ екранами моніторів…), і тепер їм однак оснащуються навіть дуже дешеві комп’ютери? Але тут бачимо інший випадок, теж є закономірністю — невідповідність рівня розвитку КС рівню розвитку функцій, що вони виконують (як не парадоксально це звучить). Тобто маю на увазі, можливості апаратного забезпечення трохи від вимог, пред’явлених до них із боку програмного. Оскільки завдання виконати все-таки хочеться, то проблему вирішують екстенсивно: потрібні нові можливості? так поставимо іще одна (інший, третій…) процесор, що й займатиметься за потрібне набором обчислень. Приклади апаратної реалізації, згодом замінені на програмні эмуляторы, саме підтверджують сказане, просто згодом ми опинимося більш рівні (повертаючись до тих ж графічним ускорителям, неважко помітити, що них персональні комп’ютери ще так важко обійтися, оскільки сучасний рівень технологій тривимірної графіки ще перебувати у зародковому стані (втім, «з мого скромному думці», я — не наполягаю), а сьогоднішній комп’ютер без 3D-графики не компьютер).

Цей факт, можливо, менш очевидний, але певна тенденція простежується, і ми довели це примерах.

2.9 Удосконалення технологій створення КС, і навіть їх преемственность.

У основі розвитку КС, природно, лежить розвиток технологій (колись всього що стосуються апаратної частини), у яких ця самі КС будуються. Тут можна виокремити декілька основних напрямів, які простежувалися до нашого часу і, вочевидь, простежуватимуться й у найближчому майбутньому. По-перше, це зростання ступеня інтеграції елементарних елементів (а саме: транзистори в чіпах, осередки в магнітних і оптичні носії інформації та т.д.), і, внаслідок, дедалі більша продуктивність при все менших розмірах. По-друге, це кошти пропускну здатність різноманітних інформаційних каналів, що застосовуються у окремих комп’ютерах і системах тієї чи іншого складності. Дані факти, звісно, очевидні, але для повноти картини їх усе ж стоїть обозначить.

Цікавішою закономірністю є так звана наступність технологій. Вона в поступове виродження даної реалізації певної технології внаслідок її моральної зношеності і наступним появою його ж (технології) знову більш якісно рівні. Тобто, простіше кажучи, має місце зване розвиток спіраллю — ми ходимо із широкого кола, але з кожним оборотом опиняючись усі наведені вище. Безумовно, не геть усе підпорядковується даному закону (наприклад, відгомони перфокарт навряд чи коли ще з’являться), але у IT-індустрії, так і загалом у техніці є безліч таких прикладів. Візьмемо, наприклад, магнітні стрічки. У 1980;х роках минулого століття комп’ютерна преса із задоволенням сурмила про швидкої їх смерть, бо їх начебто мають замінити дискові нагромаджувачі як більше мініатюрні і зручні використання (тоді, до речі, і де з’явилися оптичні і магнитооптические носії). Справді, зараз стримеры переважно комп’ютерів знайти так легко, але в великих організацій (насамперед державних й у частковості, військових) іншого вибору однаково (поки.?) немає. Коли ж врахувати, що істинні обсяги інформації стрімко зростають (у сотні разів протягом останнього десятиліття), неважко зрозуміти, що наявні дискові нагромаджувачі залишають бажати найкращих у плані ємності, надійності вперше і не останню чергу вартістю розрахунку мегабайтів. А стрічки як і є найбільш ємними (ємність стрічок вже іноді обчислюється терабайтами) і дуже дешевими носіями, які, переживши певний короткочасний застій (втім, а був він узагалі?), знову живуть і здорові. Але вже у інший області й іншому вигляді. Або розглянемо технологію оптичних дисків. Першим подібним відомим продуктом, котрі живуть (і що непогано…) й у наші дні, є CD. Який потім трансформувалася на DVD. Але вже зараз ємність DVD є предельно-недостаточной, причому начебто розвиток DVD представляється непростим. Це означає, що оптична технологія вичерпала себе? Зовсім ні. Компанія Constellation 3D, наприклад, намагаючись знайти відповідне рішення, розробила діючі зразки багатошарових (десятки; порівнювати: у CD одна в DVD два шару, й подальше збільшення його кількості традиційними методами пов’язано з вадами загасання променя під час проходження його через верхні верстви) FMDносіїв, заснованих на виключно здібності деяких матеріалів флуоресцировать під впливом світла певної довжини волны.

І це ближчий до розуміння приклад. Відомо, що з появи перших РС процесор з материнською платою стикався більшої стороною (встановлювався в Socket’овый розняття). Десь у 1996 року Intel вирішила оснастити черговий процесор новим інтерфейсом, у якому CPU б уставлявся в слот подібно, скажімо, пам’яті. Проте це рішення за кілька років експлуатації виявило ряд недоліків, одним із головних була підвищена вартість. Тому, починаючи з 2000;го р., компанія згорнула виробництво слотовых процесорів, повернувшись вже обкатанному варіанту. Хоча спочатку здавалося, що socket — вчорашній день.

Ще одна цікавий момент залежить від швидкості розвитку технологій. Закономірність у цій галузі ще давно, в 60-ті роки, сформулював Р. Мур (Moore): продуктивність елементів КС подвоюється кожні півтора року. Цього закону актуальне і понині, хоча було б вже можна говорити про річному періоді. Наприклад, виробники графічних чипів взяли за правило доброго тону випускати новий GPU кожних півроку, а щільність записи на HDD з кінця минулого року її зросла з 10 до стоїть вже майже 20 GB набік. Є думка, що й 9 місяців, але, по-моєму, це вже. Тобто маємо справа лише з прогресивним розвитком, але й його прискоренням. Причому прискорення видно ще й у запровадженні нових технологій у життя, Не тільки у тому вдосконаленні (порівняйте час розробки плазмових панелей з історією LCD-дисплеев, які відомі були ще у період холодної войны).

2.10 Падіння вартості на компьютеры.

Усі з такого самого горезвісного закону Мура подвоєння потужностей відбувається непросто так, і з збереженням вартості. Тобто тепер ми бачимо як мінімум дворазове зниження вартості на конкретний зразок кожні рікпівтора. Також має місце й загальне (якісне) зниження ціни комп’ютерні комплектуючі, хоча у цьому питанні, щоправда, ми зобов’язані переважно маємо виду персональні комп’ютери. Наприклад, нині цілком сучасний процесор можна за 100 доларів, а ціни на всі пам’ять впали просто до непристойній позначки — можна вибирати, користуватися у цьому місяці Інтернетом чи додати своєї системі сотню-другую-третью (залежно від провайдера і тарифного плану) мільйонів байт RAM. Те саме стосується практично всіх типів комплектуючих. Модні зараз 80-гигабайтовые вінчестери стоять трохи більше 200 доларів, тоді як і набагато менше солідно було б обзавестися 40-гигабайтовым менш як по 90. Якщо поділити 40 на виборах 4, то можна було купити два, хоча б півтора роки тому 10- гигабайтовый HDD за такі самі гроші? Взагалі ж у час 500 USD вистачить так званий «домашній» комп’ютер щодо непоганий комплектації. Два роки тому принципі теж могла б вистачило, але вже настав або на б/в, або на зібране з застарілих комплектуючих незрозумілого походження дуже сумнівного якості. А року скажімо 95-го? І навіть на процесор з пам’яттю забракнуло бы.

Можливість зниження цін стала можлива завдяки підвищенню продуктивність праці у цій сфері виробництва, і навіть завдяки досвіду застосування фірмами різноманітних методів здешевлення кінцевого продукту — наприклад, інтеграції деяких пристроїв на материнську плату або безпосередньо до в чипсет, застосуванню програмних прийняття рішень та ін. Важливо також зрозуміти, що це тенденція базується як чистою прогресі, але багато в чому на економічних чинниках: нині багато фірм, які конкурують між собою і злочини як наслідок прагнуть максимально вдосконалити товар і знизити нього. Щоправда, чимало їх терплять серйозних збитків (був, наприклад, той самий Intel продавала свої Celeron’ы хіба що за собівартістю, аби тільки утримати Low-End ринок, а AMD заявили про отриманні за 2000 рік значно меншою прибутку, ніж розраховувалося; аналогічній ситуації ми можемо стати й із багатьма іншими фірмами, скажімо VIA, а 3Dfx ось взагалі розорилася…), зате користувачі залишаються у найбільшої выгоде.

2.11 Майбутні напрями розвитку функцій, реалізованих КС.

Природно, функціональні можливості КС еволюціонують щонайменше швидко самих КС, часто, як було зазначено показано вище, випереджаючи об'єктивні можливості останніх. Як прогнозують консультанти, у майбутньому найсильніше впливом геть широке коло галузей матимуть п’ять груп технологій: технології штучного інтелекту, технології користувальних інтерфейсів, групові технології, мережні технології для мультимедіа та інфраструктури розробки. До того ж, спеціальне значення мають соціальні технології Інтернету, об'єктно-орієнтовані системи, паралельна обробка, інтелектуальні агенти і системи, засновані на знаннях. На думку Хуберта Делані, наукового директора Advenced Computing Environments корпорації Gartner Group основними напрямами метаморфирования характеру та способів використання комп’ютерів за останнє час являются:

. Природні користувальні інтерфейси. Інтерфейси спілкування комп’ютера та людини поступово стають більшою мірою орієнтованими на мислення людини, використовують природні йому засоби зв’язку, такі як графіка, мова, міміка, жести і т.д.

. Управління рівнем складності. Хоча технологічні інфраструктури забезпечують вищого рівня абстракції і нововведень, майбутні системи інформаційних технологій матимуть здатністю супроводжувати все збільшення кількості складних проблем дружнім стосовно користувачеві решениями.

. Інтелектуальна допомогу. Щоб задовольнити потреби людей швидкої підказкою з прискорення роботи, всередині додатків використовуватиметься нарощуваний список заснованих на виключно знаннях систем, які допомагають користувачам виконати ранжування завдання від простого до складного. Зі свого боку також відзначу таке явище, як підвищення інтелектуальності самих додатків, бо хіба що мимоволі зіштовхнувся з прикладом, хоча й кілька примітивним: протягом останніх кількох абзаців набрані в Word'97 без будь-якого ручного форматування і взагалі з мінімальним кількістю дій зі мого боку, бо всі маркери, виділення курсивом, вирівнювання, інтервали між абзацами, перенесення і заголовні літери ставилися редактором автоматически.

. Змінювана модульна структура. Вдалі архітектури будуть допускати нарощування і модифікацію шляхом застосування які базуються на объектно-ориентированных технологіях модульних систем, які можна легко і недорого модифицировать.

. Розмаїття форм зв’язок між людьми. А, щоб посилити засоби зв’язку, інформаційні технології мають підтримувати безліч форм зв’язку (мультимодальность). Наприклад, користувач, котра сидить у залі засідань, може мати простий важливе голосове повідомлення на пейджер чи комп’ютер. У разі їй потрібна утиліта розпізнавання мови, яка розшифрує це повідомлення задля її подальшого прочтения.

. Незалежність доступу від місцеположення. Користувачі матимуть доступом до обчислювальним ресурсів незалежно від своєї местоположения.

. Прозорість місцеположення. Дані, обробні ресурси, файли та шляхів сполучення автоматично викликаються незалежно від своїх фізичного расположения.

На трьох пунктах було б зупинитися особливо. Адже за суті стоїть питання таке явище, як централізація (у тому чи іншою мірою). Насамперед звернімося до історії. Спочатку існував тільки єдиний шлях використання комп’ютера. Його куди-небудь ставили і у цьому місці обробляли у ньому всі дані. Це централізована модель. Невдовзі продуктивність обробки [інформації] за комп’ютером настільки зросла, що використати його до роботи лише одну докладання стало просто марнотратством. Через війну єдиний обчислювальний ресурс став розподілятися між кількома користувачами, які у різних місцях. Це вже децентралізована модель. Минув час, і з’явився персонального комп’ютера. Тепер кожен міг працювати за персональним комп’ютером, найчастіше які перебувають при нього вдома, а чи не бути заручником однієї великий віддаленій машини. Усе це ще продовження розвитку децентралізованою моделі вычислений.

Сьогодні ж знову з’являється, якщо можна висловитися, привид минулого. По-перше, це загальне проникнення IT-технологій у всі сфери економіки. Отже, виникає запитання про максимальній ефективності капіталовкладень. Але, попри менші капітальні вкладення, експлуатація децентралізованою системи обходиться значно дорожче і, а то й припускати, що систему потрібна на рік-півтора, дешевше придбати дорогий мэйнфрейм (природно, що можуть бути вирішені завдання повинні прагнути бути адекватними). Передумовами створення таких систем є значний прогрес у розвитку коштів передачі, наприклад стандарт Fibre Channel, що й створювався спеціально в організацію кластерных систем. Нижче на рис. 1 наведено приклад схеми створити мережу зберігання даних на основі технології SAN, що базується на FC, що дає сторедж-системам переваги технологій LAN/WAN і з організації стандартних платформ для систем із високим готовністю і високої інтенсивністю запросов.

Майже єдиною, вадою SAN сьогодні залишається щодо висока ціна компонент, та заодно загальна вартість володіння для корпоративних систем, побудованих за використанням технології мереж зберігання даних, є досить низкой.

Ефективність для впровадження таких систем збереження і обробки даних підтверджується тим, що багато корпорацій, прагнучи максимальної віддачі від капіталовкладень, замінили РС на термінали, підключені потужним серверам. Причини ефективності таких рішень очевидні: окремий користувач не використовує весь потенціал свого РС, отже, більшої продуктивності при так само чи менших грошових витратах можна домогтися шляхом розподілу централізованих ресурсів серед тих, кому вони в момент нужны.

Інші причини у необхідності високоефективних систем (передусім систем зберігання даних) полягають в усі більшому поширенні глобальної сіті й бурхливим зростанням обсягів береженої інформації. Прикладом такого зростання, наприклад, може бути факт, що коли Пентагоні після перенесення накопиченої інформації більш ємні стрічки відразу з’ясувалося, що за, понадобившееся для резервування, обсяги інформації зросли настільки, що потрібно перехід налаштувалася на нові носії. До речі, ось одна з сучасних закономірностей — перенесення центру ваги з процессоро-ориентированных систем на дата-ориентированные системи. Вагомий внесок у збільшення обсягу переданих і збережених даних є що був останнім часом створення єдиного інформаційного простору, тобто найрізноманітніші комп’ютерні системи та окремі устрою (локальні мережі, персональні комп’ютери, мобільні телефони, PDA та інші.) зможе бути об'єднують у одну глобальну мережу. Причому за цьому важливу роль грає вартість, щотаки говорить про необхідність використання централізованої моделі зберігання і методи обробки данных.

Рис. 1. Приклад організації мережі зберігання даних із використанням технології SAN.

Ось як, наприклад, компанії пропонують вирішити питання інтернетизації населення. Навіщо користувачеві Інтернету дорогий комп’ютер, коли за суті є лише сполучною елементом? Значні кошти можна буде потрапити заощадити, якщо використовувати примітивний термінал з підключеної щодо нього клавіатурою і монітором, який формувати запити, послати їх у сервер і вчасно приймати відповідь. Причому з варіантів передбачає відмова навіть від монітора — адже можна транслювати сигнал на телевізійну антену, благо телевізор є в каждого.

На закінчення пункту дозвольте висловити my humble opinion щодо цього питання, щоб зрозуміти, що ж ідеться. Як як на мене, говорити про централізації тому слова, що це обчислення і збереження даних виконуватиметься на серверах, як це нерідко розуміється, трохи наївно. Так, ми щойно згадали у тому, що багато корпорацій використовують централізовані інформаційні системи своєї діяльності, розробляються та вже розроблено різні мережні рішення, але не плутати одне з іншим! Адже недарма ж ми відзначили такого поняття, як адекватність організації системи її призначенню. Для корпоративних пользовтелей справді потрібне зберігати дані централізовано і використовувати ресурси мережі, позаяк у такому разі вони отримують великі можливості при набагато менших накладних витратах. Мережні рішення активно поширюються й у повсякденного життя — хоча б інтернет, мобільний зв’язок по суті є непоганими прикладами активного користування послугами мережі. От і не можу погодитися, що «сумнівається майбутнє того класу комп’ютерів, у якому зросла імперія Microsoft». По-перше, повна орієнтація використання мереж навряд чи можлива й зараз, й у досить віддаленому майбутньому через, інакше кажучи, відсутності присутності самих мереж. Є, ясна річ, інтернет, але це мережу, спочатку існуюча як низкоскоростная середовище передачі файлів і повідомлень, погано пристосована передачі даних, які прагнуть гарантованої пропускну здатність і мінімальних затримок. На відповідну модернізацію або створення інший розподіленої мережі (мереж) піде безліч грошей і. До того ж у розподілених системах постає проблема несумісності різнорідних компонентів, які були спроектовані у тому, щоб спільно працювати. А по-друге, часто централізація виявляється не потрібна (кажучи в термінах, неадекватна). Зробимо порівняння: в високорозвинених країнах (для конкретності візьмемо європейське співтовариство) існує прекрасна система громадського міського і міжміського транспорту, послугами яку має багато людей. І тоді водночас чомусь майже в кожного є непомірно дорогий, що потребує постійному обслуговуванні, швидко старіючий, що споживає тонни бензину, забруднюючий навколишнє середовище і взагалі начебто абсолютно непотрібний особистий автомобіль, і кожен поспішає відмовитися від цілого купи труднощів і їздити у роботу у метро.

«…ми бачимо бурхливий розвиток локальних і глобальних мереж. Мережні можливості стають обов’язковими атрибутами ОС для ПК, а мережні серверні ОС — ареною конкурентної боротьби провідних компаній. … Потенційні можливості мереж… пропонують нові види доступу до нових типам мережевих функцій, які… нададуть глибоке впливом геть комерційні організації та користувачів… Вже сьогодні вже можна бачити, що мережі стають дедалі більше всеохопними надають користувачам робочу середу, де вони ні виявилися…». Безперечно, з цим не можна погодитися, але й слід, що будь-який рішення то, можливо раціонально, й у будь-якого знайдуться межі раціональності. Так, створюється єдиний інформаційний простір, IT-технології, засновані на використанні комунікацій, поширюються дедалі ширше; зростає роль мережевих комп’ютерів, потрібні нові технології розподіленого зберігання даних. Але, по-моєму, це з якого разі означає, що персональні комп’ютери невдовзі зникнуть і тоді замість них з’являться дешеві електронні блокноти, головним елементом яких мережевий контролер. І, як вище, тут у низький рівень розвитку сьогоднішніх коштів коммуникации.

Навряд йдеться про сповнену і всюдисущої централізації (а навіть якщо раптом припустити, у майбутньому він і настане, це буде ох як ще нескоро). Те розвиток мережевий сфери, яке неможливе не помітити, скоріш свідчить про значне поширення IT-технологій, а не про яка розпочалася них революції. Втім, час покажет.

3 Заключение.

Які ж висновки можна зробити щось із всього, було зазначалося, що очікується у майбутньому? По-перше, це зниження вартості комп’ютерів масового споживання, що дозволить їм стати так само повсякденними предметами, як радіоі телемовлення. Отже, головна риса майбутніх РС — це гигагерцы і терабайты, а доступність і поширення. Хоча без про них також куди підеш, і відповідне нарощування потужності відбуватиметься нас дуже швидко (як ми сказали, приблизно двічі щороку, причому процес — усі пришвидшується), що дозволить використовувати природні людині методи взаємодії з машиною. По-друге, усе це популярнішими Інтернету і взагалі мережевих технологій, створення єдиного інформаційного пространства.

Якщо ж робити прогноз більш віддалене час, то, що крім усього іншого, мушу сказати, що IT-індустрія вже підходить до чергового технологічного бар'єра: тому, подальше нарощування потужностей існуючими методами стане нерентабельно або взагалі неможливо. Наприклад, якщо підвищувати продуктивність чіпа, доведеться збільшувати ступінь інтеграції, і колись настане такого моменту, коли почнуть позначатися розміри окремих атомів застосовуваних матеріалів. Те ж саме з магнітними носіями — збільшувати щільність записи на сучасні HDD годі й нескінченно. На думку західних аналітиків, народних обранців може наступити вже під кінець поточного десятиліття. Тому різними компаніями тут проводять дослідження у створення транзисторів на принципово інших матеріалах немає жодного застосування оптичних технології зберігання інформації. Отже, людство, можливо, стоїть на порозі черговий технологічної революции.

Якщо вона станеться, то, можливо, еволюція піде з Росією ще більш вражаючими ефектами. Згодом комп’ютери стануть вироблятися з інших матеріалів, можливо, вони почнуть квазибиологическими чи хто знає ще якими і консультації безумовно, дуже маленькими; можливо, вони обзаведуться потужним інтелектом. А можливо, усе буде по-іншому. Адже розвиток будь-коли буває прямолінійним, і не можна вгадати, та й взагалі робити прогнози у майбутнє - справа неблагодарное.

У кожному разі, на мою думку, еволюція комп’ютерних систем поки ще на зародковому етапі. Те, що маємо зараз, лише початком. Якщо припустити, що 21-й століття стане століттям інформаційних технологій, то 20-ї був лише передумовою до появі. Однак не конкретизувати у тому, що вони можуть дати. Адже недарма на дверях Intel написано: «It is a way to… «Замість крапки кожний поставити те, що більше подобається, що він бачить. Шлях саме «в… », а зовсім не від до безкраїм просторам Інтернету. Головне лише, щоб це шлях призведе людство до плачевним последствиям…

4 Список використаних источников.

. Частиков А. П. Історія комп’ютера. Стор. 114−118.

. iXBT.com. Володимир Савяк. SAS, NAS, SAN: Крок до мереж зберігання даних (6 листопада 2001 г.).

. Computerworld Росія 20 лютого 1996 р. Кевін Стамф. Ностальгійний погляд на п’ятдесятирічну історію обчислювальної техники.

. Computerworld Росія 20 лютого 1996 р. Антониетта Поллески. Обличчям до обличчя з будущим.

. Computerworld Росія 16 січня 1996 р. Михайло Борисов. Централизация.

Удар… Ще удар!

. Деякі матеріали Компьютерры від 30 жовтня, 6 листопада 2001 г.

———————————;

???-??/???†???

[pic].

Показати весь текст
Заповнити форму поточною роботою