Эволюция ЭВМ, программа анализа ресурсов ЛВС
2 Общая характеристика современного развития ПК 13
2.1 Современный этап развития архитектуры центральных процессоров 13
2.2 Современный этап развития архитектуры графических процессоров 21
2.3 Новейшие достижения IT-индустрии в сфере хранения информации 31
3.1 Прогноз развития процессорной и графической подсистем ПК 41
3.2 Прогноз развития подсистемы хранения информации 55
3.3 Ограничение действия закона Мура 62
4 Компьютерные технологии будущего 70
4.1 Предпосылки революционных изменений компьютерных технологий 70
Список использованных источников 98
Актуальность исследования. Компьютеры появились достаточно давно, но только в последнее время их начали усиленно использовать во многих отраслях человеческой жизни. Ещё двадцать лет назад персональный компьютер было редкостью. Теперь практически в каждом доме есть персональный компьютер. Развитие вычислительной техники представляет собой постоянно сменяющие друг друга физические способы реализации логических алгоритмов - от механических устройств к ламповым, затем к транзисторным и, наконец, к интегральным схемам.
Сегодня идут разговоры о скором достижении пределов применения полупроводниковых технологий и появлении вычислительных устройств, работающих на совершенно ином принципе. Все это свидетельствует о том, что прогресс не стоит на месте, и с течением времени ученые открывают новые возможности создания вычислительных систем, принципиально отличающихся от широко применяемых компьютеров. Существует несколько возможных альтернатив замены современных компьютеров.
В недалеком будущем все новейшие технологии, применяемые сегодня в довольно узких областях или разработанные пока только на теоретическом уровне, приобретут повсеместное распространение и неизбежно станут частью нашей жизни. В связи с этим специалисты предупреждают, что в изменившихся условиях широкого распространения компьютеров во всех областях деятельности с изменением способа общения человека и компьютера, важно не утратить контроля над усложняющимися кибернетическими системами.
В последнее время появляется большое количество публикаций, как в традиционной прессе, так и в Интернет-изданиях о наступлении новой компьютерной эры. Подобные прогнозы связаны не столько с увеличением объема жесткого диска или тактовой частоты процессора, сколько вообще с самим понятием компьютерной техники, способами ее функционирования и новыми возможностями, которые раньше с трудом можно было даже представить. Несколько прогнозов относительно компьютерного будущего человечества сделал глава корпорации Билл Гейтс, выступивший перед Технологическим советом Северной Виргинии (NVTC). Следует отметить, что сколько-нибудь сенсационных прогнозов в докладе названный Human-Computer Interaction in the Year 2020 не содержится. Очень много описываемых тенденций и технологий уже существует – составители лишь проанализировали их и свели вместе. Итак, по мнению основателя компании Microsoft Билла Гейтса, к 2020 году очень много пользователей будут располагать более чем одним компьютером. Появятся технологии «электронной бумаги», позволяющие складывать дисплей, как обычную газету. Помимо того, существенные изменения претерпят системы ввода информации, которые будут создаваться на основе «естественных пользовательских интерфейсов»[1].
Вызывают, тем не менее, сомнения высказывания Билла Гейтса относительно радикального изменения способов коммуникации человека и компьютера. К примеру, он полагает, что через 12 лет такие привычные атрибуты интерфейса, как клавиатура и мышь, отойдут на второй план, а на их места придут устройства, распознающие голос, жесты и почерк.
Возможность голосовых команд существует и в обычной Windows, как и во многих мобильных телефонах, а более специализированные программы при некоторой тренировке совершенно неплохо справляются со вводом текста. Но немногие пользуются данным, за исключением людей с ограниченными возможностями. Безусловно, что усовершенствованные системы распознавания образов и жестов найдут широчайшее распространение в системах управления сложными промышленными объектами, машинами и механизмами.
Актуальность исследования определяется тем, что использование новейших достижений компьютерной индустрии – это один из важнейших факторов успешной деятельности любой организации в условиях современной экономики.
Степень научной разработанности темы исследования. Научная разработанность темы исследования не может быть связана с именами конкретных ученых или исследователей, поскольку сама формулировка темы предполагает не научный, а прогностический подход, который не может учесть всех возможных направлений развития IT-индустрии и технических открытий, способных повлиять на эволюцию технологий производства компонентов ПК в мировом масштабе.
Объект исследования. Объектом исследования являются перспективы развития ПК.
Предмет исследования. Предмет исследования включает анализ текущего состояния и перспектив развития различных компонентов ПК.
Целью исследования является состояния и перспектив развития электронно-вычислительных машин (ЭВМ).
В соответствии с целью работы ставим перед собой следующие задачи:
- изучить современный этап развития архитектуры центральных процессоров;
- изучить современный этап развития архитектуры графических процессоров;
- исследовать новейшие достижения IT-индустрии в сфере хранения информации;
- дать прогноз развития процессорной индустрии;
- дать прогноз развития графической подсистемы ПК;
- дать прогноз развития подсистемы хранения информации;
- исследовать компьютерные технологии будущего.
Теоретико-методологическая основа исследования. Теоретико-методологической базой исследования является использование метода сравнительного анализа, а также аналитических материалов крупнейших компаний – производителей аппаратного и программного обеспечения.
1 Предпроектные исследования
Информационные технологии все больше и больше вторгаются в нашу жизнь, проникают во все процессы (социальные, экономические, политические), подменяя их, помогая им развиваться, являются сопутствующим и одновременно неотъемлемым средством предоставления и анализа информации. Мир сейчас находится на пороге информационного общества. Началом такого перехода стало внедрение в различные сферы деятельности человека современных средств обработки и передачи информации. Переход от индустриального общества к информационному осуществляется благодаря информатизации общества – процессу, при котором создаются условия, удовлетворяющие потребности любого человека в получении необходимой информации.
Основную роль, в информационном обществе, будет играть система распространения, хранения и обработки информации, образуя информационную среду, которая может обеспечить любому человеку доступ ко всей информации. Новые технологии являются главной движущей силой в дополнение к существующим силам мирового рынка. Всего несколько ключевых компонентов – микропроцессоры, локальные сети, робототехника, специализированные АРМ, датчики, программируемые контроллеры – превратили в реальность концепцию автоматизированного предприятия.
В XXI веке образованный человек – это человек, хорошо владеющий информационными технологиями. Ведь деятельность людей все в большей степени зависит от их информированности, способности эффективно использовать информацию. Для свободной ориентации в информационных потоках современный специалист любого профиля должен уметь получать, обрабатывать и использовать информацию с помощью компьютеров, телекоммуникаций и других средств связи. Об информации начинают говорить, как о стратегическом ресурсе общества, как о ресурсе, определяющем уровень развития государства. Поэтому постановка задачи данного исследования исходила из несомненной важности и актуальности изучения эволюции ЭВМ в контексте развития человеческой цивилизации.
В рамках этого раздела рассмотрены книги и статьи, имеющие отношение к теме дипломного проекта. В работах Антипиной Г.С., Гайфуллина Б.Н., Гохберга Г.С., Зафиевского А.В., Короткина А.А., Карминского А.М., Карминского С.А., Нестерова В.П., Черникова Б.В. указано, что информационные технологии (ИТ) являются наиболее важной составляющей процесса использования информационных ресурсов общества. К настоящему времени ИТ прошли несколько эволюционных этапов, смена которых определялась главным образом техническим прогрессом, появлением новых технологических средств поиска и переработки данных. Последний по времени этап, часто называемый новым, характеризуется изменением направленности ИТ с развития технических средств на создание стратегического преимущества в любой сфере деятельности[2].
Один из ключевых факторов развития современных информационных технологий – растущие потребности общества в информатизации. Современное общество уже невозможно представить без Интернета. Информационные технологии сопровождают нас повсюду: дома, в дороге, на работе. Желание иметь доступ к любой информации в любой момент времени одновременно с развитием и удешевлением мобильных технологий привело к растущему спросу на планшеты и смартфоны. С каждым днём количество пользователей мобильных устройств возрастает.
Мобильные устройства становятся всё более сложными и функциональными. Необходимо не упустить возможность пересмотреть и перестроить существующие бизнес-процессы и, возможно, запланировать новые, так как предоставление пользователям мобильных сервисов уже в ближайшие несколько лет может рационализировать многие бизнес-процессы и снизить их стоимость.
В работах Макаровой Н.В. и Трофимовой В.В. указано, что не стоит также упускать из виду тот факт, что большинство современных мобильных устройств имеет возможность определять своё местоположение в пространстве. Компаниям, ведущим свой бизнес на распределённой территории, ни в коем случае нельзя упускать из виду возможности, которые им дают эти технологии. Трудно переоценить возможности, которые появятся у сотрудников, работающих «в поле», когда у них под рукой всегда будет доступ ко всей необходимой справочной информации, и новые возможности их руководителей, которые будут получать оперативную информацию о местонахождении своих подчинённых, включая перечень запланированных и выполненных ими работ[3].
Провайдеры проводного и беспроводного доступа в Интернет также расширяют спектр своих услуг, осваивая новые территории и модернизируя техническое оснащение. Последние тенденции – сети 4 и 5G, позволяющие передавать данные на скорости свыше 100 Мбит/с, а также услуги по организации контролируемой защищенной внутрикорпоративной GSM-связи. Например, уникальный в мировых масштабах проект РОРС GSM (ремонтно-оперативная радиосвязь на базе сетей стандарта GSM), благодаря которому на российском рынке появились принципиально новые телекоммуникационные сервисы.
Петров В.Н. в своей монографии указывает, что в результате обширного проникновения мобильных технологий в повседневную жизнь многие сотрудники компаний уже имеют доступ к своей внутрикорпоративной сети со своего планшета или смартфона и, как следствие, из любой точки мира. Несомненно, это повышает оперативность принятия решений, однако увеличивает проблему безопасности информации: утрата мобильного устройства либо «взлом» устройства хакером могут приводить к большим финансовым потерям для компаний[4].
В трудах Титаренко Г.А. и Голициной О.Л. мы можем видеть, что проблемы безопасности мобильных устройств возникают вследствие использования таких устройств в личных целях, включая установку различных приложений, игр, доступ к социальным сетям, загрузку небезопасных интернет-сайтов и т.п. Одним из действенных способов защиты коммерческой информации является использование виртуализации внутри мобильного устройства, когда доступ к защищённой сети осуществляется из установленного на мобильном устройстве приложения, что значительно затрудняет несанкционированный доступ к данным. Не стоит также забывать и об организационных мерах защиты информации: вероятно, стоит пересмотреть текст соглашения о неразглашении конфиденциальной информации в части увеличения ответственности владельца мобильного устройства[5].
Современные исследования утверждают, что прирост функциональности информационных систем на 25 % ведёт к увеличению их сложности на 100 %. Системы с развитой функциональностью имеют сотни параметров настройки и сопровождаются тысячами страниц инструкций. Когда же речь идёт об интеграции таких систем, сложность их настройки возрастает в разы. Компании с большим числом эксплуатируемых информационных систем зачастую игнорируют тот факт, что вновь создаваемые системы частично, а иногда и полностью, заменяют функционал уже существующих систем. Однако старые системы не снимают с эксплуатации, на их поддержку тратятся огромные человеческие и вычислительные ресурсы.
Из трудов Коноплева И. А., Хохловой О. А., Денисовой А. В. и Миняева М.Ф. можно сделать вывод, что встречаются также ситуации, когда разрабатываемые системы интегрируются с существующими системами, но вместо рационализации использования вычислительных ресурсов в местах, где происходит дублирование информации, одинаковые данные продолжают накапливаться одновременно в нескольких системах[6].
Особенно заметны проблемы избыточности информационных технологий в крупных компаниях, где решение о разработке той или иной системы принимается не централизованно ИТ-службой организации, а функциональным подразделением. В этом случае отсутствие информации об уже существующих похожих системах в другом подразделении приводит к тому, что за разработку одного и того же функционала компания платит несколько раз.
Михеева Е.В. указывает, что на практике не всегда возможно обеспечить полный контроль ИТ департамента за всеми информационными технологиями компании. Необходимо признать существование неконтролируемых информационных технологий, регулярно проводить их мониторинг и предоставлять консультации, поощряющие согласованный ввод в эксплуатацию устройств и систем, независимо от организационного окружения. Информационные технологии всегда будут существовать на различных участках организаций как внутри, так и за пределами ИТ департамента, однако зачастую неконтролируемые ИТ выступают в качестве движущей силы инновационного прогресса в организации[7].
В работах таких авторов, как Завиваев Н.С., Шамин Е.А., Истомина Т.В., Дунин В.О., Егоров В.А., Зубренкова О.А., Шигорина Н.А. дается описание того, что во многих организациях используются корпоративные информационные системы которые позволяют вести комплексно весь документооборот компании. Рост числа эксплуатируемых информационных систем сопровождается растущим объёмом хранимых этими системами данных[8]. При этом постоянно устаревают техника и технологии, для которых эти системы были разработаны. Современные тенденции – это виртуализация приложений и ресурсов, а также переход к облачным вычислениям. Виртуализация позволит избежать зависимости от физических платформ, в то время как облачные вычисления позволят консолидировать информационные технологии компаний в одном или нескольких ЦОДах.
Преимущества консолидации ИТ очевидны: снижение затрат на обслуживание одновременно с увеличением управляемости ИТ. Динамическая балансировка производительности между системами позволит сосредотачивать вычислительные мощности на наиболее важных и используемых системах. Не стоит забывать и о резервировании. Наличие резервных ЦОД одновременно с резервированием каналов передачи данных сделают ИТ компании практически неуязвимыми для катастроф и стихийных бедствий.
Растущие объёмы хранилищ данных вместе с ростом производительности вычислений открывают для компаний совершенно новые возможности, которые ещё несколько лет назад невозможно было себе представить. Оцифровывается всё, от фотокопий документов до трёхмерных карт. Сложно предположить, какие объёмы данных будут храниться в ЦОДах уже через несколько лет.
Снижение физических размеров дисков, увеличение производительности вычислительных систем, снижение их стоимости, уплотнение стоек – факторы, которые необходимо учитывать при проектировании и строительстве центров обработки данных. Надо смириться с невозможностью прогнозировать потребности ИТ в хранилищах и вычислительных мощностях на 10 лет вперёд и уже сегодня проектировать «бесконечно большой» ЦОД.
Федотова Е.Л. в своих трудах подчеркивает, что технологии резервирования и виртуализации помогут в будущем обновлять компоненты такого ЦОДа без приостановки обработки данных и не прерывая деятельность компании[9].
С каждым днём становится всё более заметен другой фактор, который в будущем будет оказывать первостепенное влияние на расходы компаний, связанных с ИТ. Этот фактор – растущее потребление электроэнергии. Всё идёт к тому, что уже через несколько лет информационные системы будут сопровождаться показателем энергозатрат. Другими словами, мы начнём учитывать количество киловатт, потребляемых приложением, при определении портфеля ИТ-проектов компании.
Таким образом, можно сделать вывод, что сегодня можно с уверенностью говорить о том, что информационные технологии не только проникают во все сферы жизнедеятельности человека, но и меняют саму нашу жизнь, подстраивая её под себя. Информационные технологии начали сами порождать потребности в новых информационных технологиях. Автоматизация деятельности человека выходит на совершенно новый, мобильный уровень. Рост зависимости от ИТ выводит на новый уровень и проблему информационной безопасности, как указывают в своих трудах Напреев Я.Л., Миронов К.Е., Поискова Т.Р., Бочкарёва Ю.Г., Васильчук О.И., Карманчиков А.И., Колесников В.С., Мерзлякова Д.Р.[10].
2 Общая характеристика современного развития ПК
2.1 Современный этап развития архитектуры центральных процессоров
За годы существования микропроцессоров было разработано множество различных их архитектур. Многие из них в дополненном и усовершенствованном виде используются и сейчас. Например Intel x86, развившаяся в начале в 32-битную IA-32, а позже в 64-битную x86-64. Процессоры архитектуры x86 вначале использовались только в персональных компьютерах компании IBM (IBM PC), но в настоящее время всё более активно используются во всех областях компьютерной индустрии, от суперкомпьютеров до встраиваемых решений. Также можно перечислить такие архитектуры как Alpha, POWER, SPARC, PA-RISC, MIPS (RISC-архитектуры) и IA-64 (EPIC-архитектура) [21, c.133].
В современных компьютерах процессоры выполнены в виде компактного модуля (размерами около 5×5×0,3 см), вставляющегося в ZIF-сокет (AMD) или на подпруживающую конструкцию — LGA (Intel). Особенностью разъёма LGA является то, что выводы перенесены с корпуса процессора на сам разъём — socket, находящийся на материнской плате. Большая часть современных процессоров реализована в виде одного полупроводникового кристалла, содержащего миллионы, а с недавнего времени даже миллиарды транзисторов.
Наиболее популярные процессоры сегодня производят фирмы Intel, AMD и IBM. Большинство процессоров, используемых в настоящее время, являются Intel-совместимыми, то есть имеют набор инструкций и интерфейсы программирования, сходные с используемыми в процессорах компании Intel.
По итогам 2016 года на рынке микропроцессоров для настольных ПК, ноутбуков и серверов доля корпорации Intel составила 83,7 %, доля AMD — 10,2 %, других производителей - 6,1 % [43, c.98] (табл. 1).
Таблица 1 - Показатели распределения мирового рынка микропроцессоров
Год | Intel | AMD | Другие |
2012 | 78,9 % | 13,1 % | 8,0 % |
2013 | 80,4 % | 19,3 % | 0,3 % |
2014 | 79,7 % | 20,1 % | 0,2 % |
2015 | 80,8 % | 18,9 % | 0,3 % |
2016 | 83,7 % | 10,2 % | 6,1 % |
Одной из главных тенденций в компьютерной индустрии во все времена ее существования была борьба за увеличение производительности центрального процессора. В 2007 г. корпорация Intel объявила об одном из важнейших прорывов в фундаментальных принципах проектирования транзисторов за последние 40 лет, использовав совершенно новые материалы транзисторов (новое сочетание материала high-k на основе гафния для изготовления изолирующего слоя затвора и металлических материалов для изготовления затвора) для создания нового поколения процессоров Intel Core 2, содержащих сотни миллионов микроскопических 45-нанометровых транзисторов [31, c.25].
Гафний представляет собой металл, который позволяет существенно сократить утечки тока и обладает высоким емкостным сопротивлением, необходимым для обеспечения высокой скорости срабатывания транзистора. Этот материал позволил обеспечивать рекордную производительность процессоров для настольных ПК, ноутбуков и серверов, в также сокращать утечку тока из транзисторов, оптимизируя тем самым конструкцию и размеры процессоров и компьютеров, энергопотребление и затраты.
Эта технология Intel обеспечила более высокую скорость переключения транзисторов, что означает повышение тактовой частоты ядер и системной шины и увеличение производительности без изменения уровня энергопотребления и тепловыделения, что помогло обеспечить дальнейшее выполнение закона Мура, - аксиомы индустрии высоких технологий, согласно которой число транзисторов в микросхемах удваивается каждые два года, что обеспечивает расширение функциональности при экспоненциальном уменьшении стоимости[11].
Прошло совсем немного времени с момента выпуска двухъядерного процессора (рисунок 1), как на рынке ПК уже появились машины на основе четырехядерных процессоров, на подходе шести, восьмиядерные и т.д. процессоры.
Рисунок 1 - Блок-схема двухъядерного процессора AMD
Корпорация Intel впервые представила микроархитектуру Intel Core в 2006 году, реализовав ее в процессорах Core 2 Duo на базе 65-нанометровой производственной технологии. Первое поколение этой микроархитектуры, оптимизированной для многоядерных процессоров, позволило более полно реализовать философию энергосбережения, которая была выбрана для микроархитектуры процессоров для мобильных ПК [27, c.144].
Кроме того, в этой микроархитектуре были использованы различные современные инновации, обеспечивающие рекордное повышение производительности, улучшение энергосбережения и повышение быстродействия при работе в многозадачной среде.
В микроархитектуре Intel Core были реализованы следующие инновации:
1. Технология Wide Dynamic Execution.
2. Технология Intelligent Power Capability.
3. Технология Advanced Smart Cache.
4. Технология Smart Memory Access.
5. Технология Advanced Digital Media Boost.
Например, четырехъядерные процессоры Intel Xeon на базе 65-нанометровой производственной технологии демонстрировали повышение производительности в 2,5 раза по сравнению с серверными решениями предыдущего поколения. Настольные ПК на базе процессора Intel Core 2 Duo обеспечивали повышение производительности до 40% при сокращении энергопотребления. Мобильные ПК на базе процессора Intel Core 2 Duo обеспечивали повышение производительности при работе в многозадачной среде до двух раз и более высокую энергоэкономичность, позволяющую увеличить время автономной работы[12].
Инновации и усовершенствования обеспечивали повышение производительности и сокращение энергопотребления. Во второй половине 2007 года корпорация Intel начала производство следующего поколения процессоров Intel Core 2 под кодовым наименованием «Penryn». Новые процессоры были построены на базе ведущей в отрасли 45-нанометровой производственной технологии с использованием металлических затворов Highk и новейших усовершенствований микроархитектуры.
Дальнейшее развитие микроархитектуры Intel Core стало возможным благодаря огромному успеху революционной микроархитектуры, которая использовалась в процессорах семейства Intel Xeon и Intel Core 2. В двухъядерном процессоре семейства Penryn на базе 45-нанометровой производственной технологии использовалось более 400 миллионов транзисторов, а в четырехъядерном – более 800 миллионов транзисторов [16, c.9].
При этом процессоры на базе новой микроархитектуры обеспечивали значительное повышение производительности при такой же тактовой частоте, увеличение объема кэш-памяти второго уровня до 50%. Расширенные функции управления питанием позволили достичь абсолютно нового уровня энергосбережения. В процессорах семейства Penryn также использовалось около 50 новых наборов команд Intel Streaming SIMD Extension 4 (Intel SSE4), что обеспечивает повышение производительности мультимедийных приложений и приложений для высокопроизводительных вычислений.
В 2012 году компания Intel выпустила новые двух- и четырехъядерные чипы. Новым флагманом четырехъядерной серии Core 2 Quad стал чип Core 2 Quad Q9650, работающий на частоте три гигагерца. Технология производства этих процессоров основывалась на базе 45-нанометровой производственной технологии. На базе этой новой производственной технологии были использованы архитектурные инновации и усовершенствования, которые ускорили работу программного обеспечения и помогли сократить энергопотребление.
По сравнению с 65-нанометровой производственной технологией 45-нанометровая производственная технология с использованием диэлектриков Hi-k обеспечила следующие преимущества для продукции [25, c.81]:
1. Увеличение плотности размещения транзисторов почти в два раза выше (что позволяет уменьшить размер микросхем или увеличить количество транзисторов).
2. Уменьшение мощности переключения транзисторов примерно на 30%.
3. Увеличение скорости переключения транзисторов более чем на 20% или сокращение утечки мощности более чем в пять раз.
4. Уменьшение утечки мощности из оксида затворов транзисторов более чем в 10 раз, благодаря чему уменьшаются требования к энергопотреблению и увеличивается время автономной работы.
По словам одного из основателей корпорации Intel Г. Мура, использование диэлектриков Hi-k и новых металлических материалов ознаменовало собой крупнейшее изменение в транзисторных технологиях с момента появления МОП-транзисторов с полукристаллическими кремниевыми затворами в конце 60-х годов прошлого века. В дополнение к преимуществам 45-нанометровой производственной технологии Intel с использованием диэлектриков Hi-k, в процессорах семейства Penryn сохранились преимущества энергоэкономичности микроархитектуры Intel Core с двумя важными дополнениями: технологией Deep Power Down и технологией Dynamic Acceleration [21, c.66].
Технология Deep Power Down - это абсолютно новое состояние управления питанием, которое значительно снижает энергопотребление процессора в периоды простоя, в связи с чем внутренняя утечка мощности в транзисторах перестает иметь значение.
Это новейшее состояние «сна» процессора – состояние с самым низким уровнем энергопотребления. В этом состоянии значительно увеличивается время автономной работы ноутбука. Благодаря этой технологии процессоры имеют значительно более низкие показатели энергопотребления по сравнению с энергоэффективными процессорами Merom, относящимися к предыдущему поколению архитектуры Intel Core [27, c.75].
В состоянии Deep Power Down процессор очищает кэш-память, сохраняет состояние микроархитектуры процессора и отключает питание ядер и кэш-памяти второго уровня. В состоянии Deep Power Down набор микросхем продолжает обслуживать трафик памяти для операций ввода/вывода, но не переводит при этом процессор в активное состояние. Когда требуется использовать ресурсы ядра, повышается напряжение, включаются тактовые циклы, перезагружается процессор, восстанавливается состояние микроархитектуры и возобновляется выполнение команд.
Чем глубже состояние сна, тем больше тратится энергии на переход в это состояние и выход из него. Слишком частый переход в состояния глубокого сна может привести к потере энергии. Для предотвращения этого в процессорах Penryn имеется функция автоматического снижения уровня, использующая эвристические механизмы для определения того, оправдывает ли экономия энергии затраты энергии на выключение процессора и его перезапуск. Если это не так, запрос на переход в состояние Deep Power Down понижается до уровня C4, т. е. менее глубокого сна [34, c.357].
В результате достигается экономия энергии, соответствующая вероятному периоду простоя. Для дополнительного увеличения производительности однопоточных приложений корпорация Intel расширила возможности технологии Intel Dynamic Acceleration Technology, доступной в существующих процессорах Intel Core 2 Duo. Эта функция использует энергетический потенциал, освобождающийся в момент, когда одно ядро становится неактивным, для повышения производительности другого ядра, продолжающего работать.
Если одно ядро находится в состоянии C3 или более глубокого сна, часть энергии, обычно используемая этим ядром, может подаваться на активное ядро без превышения при этом температурных спецификаций процессора. Это повышает скорость выполнения однопоточных приложений, увеличивая производительность.
Достижения корпорации Intel в области архитектуры и полупроводниковых технологий основаны на быстрых темпах внедрения инноваций, позволяющих обеспечить прирост производительности процессоров и сокращение их энергопотребления в следующем десятилетии и более отдаленном будущем.
В корпорации Intel такую форму развития называют моделью «тик-так». Каждый «тик» отражает новый этап развития полупроводниковой производственной технологии и усовершенствования в области микроархитектуры. Каждый «так» соответствует созданию совершенно новой микроархитектуры. Цикл повторяется приблизительно каждые два года[13].
Семейство процессоров Penryn на базе 45-нанометровой производственной технологии Intel с использованием металлических затворов Hi-k представляет собой последний «тик» и включает многочисленные инновации микоархитектуры Intel Core.
В 2012 году корпорация Intel представила совершенно новую микроархитектуру под кодовым названием «Nehalem», которая стала новым этапом «так». В этой микроархитектуре для каждой платформы была обеспечена требуемая производительность и реализовано оптимальное соотношение «цена/производительность/энергоэкономичность» с использованием для этого следующих возможностей [41, c.14]:
1. Динамическое управление ядрами процессора, вычислительными потоками, кэш-памятью, интерфейсами и питанием.
2. Возможность обработки четырех команд за один тактовый цикл в микроархитектуре Intel Core (способность микроархитектуры Intel Core регулярно обрабатывать до четырех команд за один тактовый цикл, по сравнению со способностью других процессоров обрабатывать 3 команды за тактовый цикл или менее).
3. Параллельная обработка потоков (технология Intel Hyper-Threading), обеспечивающая повышение производительности и сокращение энергопотребления.
4. Расширение архитектуры с инновационными наборами команд Intel SSE4 и ATA.
5. Высокопроизводительная многоуровневая общая кэш-память.
6. Высокая пропускная способность памяти и системная производительность.
7. Динамическое управление питанием с повышением производительности.
Таким образом, масштабируемость микроархитектуры процессоров Intel обеспечила оптимальное соотношение «цена/производительность/ энергоэкономичность» для каждого сегмента рынка за счет следующих решений:
1. Новая системная архитектура для процессоров и платформ Intel нового поколения.
2. Масштабируемость производительности: от 1 до 16 (и более) потоков и от 1 до 8 (и более) ядер процессоров.
3. Масштабируемые настраиваемые внутрисистемные соединения и интегрированные контроллеры памяти.
4. Высокопроизводительный интегрированный графический процессор для клиентских платформ.
2.2 Современный этап развития архитектуры графических процессоров
На заре развития персональных компьютеров видеокарты выполняли функцию кадрового буфера. То есть изображение формировалось центральным процессором компьютера и программным обеспечением, а карта отвечала лишь за его хранение (в буфере памяти) и вывод с определенной частотой отдельных кадров на монитор. По мере возрастания требований к качеству и реалистичности формируемого изображения, а также к скорости рендеринга отдельных кадров, пришло понимание того факта, что центральный процессор ПК, то есть процессор общего назначения, не в состоянии эффективно решать специфические задачи формирования трехмерного изображения и для этих целей требуется специализированный графический процессор (GPU), который бы занимался исключительно расчетом трехмерного изображения [1].
Современные графические процессоры по сложности не уступают центральным процессорам (процессорам общего назначения), и разница заключается лишь в их специализации, благодаря чему они могут более эффективно справляться с задачей формирования изображения, выводимого на экран монитора.
Как и центральные, графические процессоры характеризуются такими параметрами, как микроархитектура, тактовая частота работы графического ядра и технологический процесс производства. Для графических процессоров есть и специфические характеристики, которые обычно приводятся в технической документации. К примеру, к важнейшим характеристикам графического процессора относится число вершинных (Vertex Pipelines) и пиксельных (Pixel Pipelines) конвейеров [13].
Для построения трехмерного изображения необходимо выполнить целый ряд операций: принять решение, какие объекты вообще должны присутствовать в сцене (видимые и невидимые объекты), определить местоположение вершин, которые задают каждый из этих объектов, построить по этим вершинам грани, заполнить получившиеся полигоны текстурами в соответствии с освещением, степенью детализации и учетом перспективных искажений и т.д.
Чем тщательнее делаются все эти расчеты, тем реалистичнее получается трехмерное изображение. Повысить производительность этих рутинных операций можно за счет разбивки их по стадиям (конвейеризации) и распараллеливания. Именно эти вопросы и решают графические процессоры.
Для того чтобы лучше представить себе структуру современного графического процессора, рассмотрим более детально классический процесс конвейерного расчета трехмерного изображения [14](рисунок 2).
Рисунок 2 - Классический процесс конвейерного
расчета трехмерного изображения
На первом этапе графический процессор получает от центрального процессора данные об объекте, который необходимо построить. Эти данные обрабатываются в вершинном процессоре или блоке (Vertex Pipeline), который является частью общего конвейера обработки данных. На основании полученных данных вершинный процессор занимается расчетом геометрии сцены и рассчитывает положение вершин, которые при соединении образуют каркасную модель трехмерного объекта. Кроме того, в вершинном процессоре производятся дополнительные операции над вершинами — преобразование и освещение (Transform & Lighting, T&L).
Обработка данных в вершинном процессоре происходит под управлением специализированной программы, называемой вершинным шейдером (Vertex Shader). Вершинные шейдеры производят математические операции с вершинами, то есть предоставляют возможность выполнять программируемые алгоритмы по изменению параметров вершин и их освещению (T&L) [35, c.25].
Каждая вершина в 3D-модели определяется тремя координатами — X, Y и Z. Вершины также могут быть описаны характеристиками цвета, текстурными координатами и т.п. Вершинные шейдеры, в зависимости от алгоритмов, изменяют эти данные в процессе своей работы, например, вычисляя и записывая новые координаты и цвет. Входными данными вершинного процессора являются данные об одной вершине геометрической модели, которая в данный момент обрабатывается. Это могут быть координаты в пространстве, нормаль, компоненты цвета и текстурные координаты [17].
При помощи вершинных шейдеров вершинный процессор может выполнять такие операции, как, например, деформация и анимация объектов, имитация ткани и многое другое. На следующем этапе конвейера (Triangle) происходит сборка (Setup) трехмерной модели в полигоны. На этом этапе вершины соединяются между собой линиями, образуя каркасную модель. При соединении вершин друг с другом образуются полигоны (треугольники).
После этапа сборки данные поступают в пиксельный процессор (Pixel Pipeline), который определяет конечные пикселы, которые будут выведены в кадровый буфер. Пиксельный процессор в итоге своей работы выдает конечное значение цвета пиксела и Z-значение для последующего этапа конвейера. Пиксельный процессор работает под управлением специальной программы, называемой пиксельным шейдером (Pixel Shader).
Пиксельные шейдеры — это программы, выполняемые пиксельными процессорами во время растеризации для каждого пиксела изображения. Дабы данное определение не показалось слишком заумным, поясним, что подразумевается под понятием «растеризация». Это процесс разбиения объекта на отдельные точки — пикселы.
Поскольку пиксельные шейдеры реализуют различные операции над отдельными пикселами, такие как затенение или освещение, текстурирование (операцию выполняет блок наложения текстур TMU), присвоение цвета, данных о прозрачности и т.п., то можно говорить, что пиксельный процессор работает на этапе растеризации [24, c.155].
Пиксельные шейдеры реализуют такие функции, как мультитекстурирование (наложение нескольких слоев текстуры), попиксельное освещение, создание процедурных текстур, постобработка кадра и т.д.
После обработки данных в пиксельном процессоре с помощью пиксельных шейдеров данные обрабатываются блоком растровых операций ROP (Raster Operations). На данном этапе с использованием буфера глубины (Z-буфера) определяются и отбрасываются те пикселы, которые будут не видны пользователю.
Когда рассчитывается новый пиксел, его глубина сравнивается со значениями глубин уже рассчитанных пикселов с теми же координатами Х и Y. Если новый пиксел имеет значение глубины больше какого-либо значения в Z-буфере, новый пиксел не записывается в буфер для отображения (если меньше — то записывается).
Кроме буфера глубины, позволяющего отсекать невидимые поверхности, при создании реалистичных трехмерных изображений необходимо учитывать, что объекты могут быть полупрозрачными. Эффект полупрозрачности создается путем объединения цвета исходного пиксела с пикселом, уже находящимся в буфере. В результате цвет точки является комбинацией цветов переднего и заднего плана. Для учета прозрачности объектов используется так называемый alpha-коэффициент прозрачности, который имеет значение от 0 до 1 (для каждого цветового пиксела).
Описанная классическая архитектура графического конвейера дает наглядное представление об основных этапах формирования изображения видеокартой. При этом нужно отметить, что в графическом процессоре используется не один, а несколько конвейеров, работающих параллельно; чем больше в графическом процессоре таких конвейеров, тем она производительнее. Действительно, если, к примеру, в графическом процессоре реализовано 16 конвейеров, то первый из них обрабатывает 1-й, затем 17-й, потом 33-й пиксел и т.д.; второй — 2-й, 18-й и 34-й соответственно [24, c.156].
История развития графических процессоров до сих пор шла в одном направлении — увеличивалось число конвейеров. Понятие «конвейер» является устойчивым, но его нельзя считать строгим техническим термином. В графическом процессоре используются разные конвейеры, которые выполняют отличающиеся друг от друга функции. В этом смысле более правильно говорить о вершинных или пиксельных конвейерах, но не о конвейерах вообще. Раньше под конвейером понимали пиксельный процессор, который был подключен к своему блоку наложения текстур (TMU) [17].
Например, если у графического процессора (GPU) используется восемь пиксельных процессоров, каждый из которых подключен к своему блоку TMU, то говорят, что у GPU восемь конвейеров. В то же время отождествлять число конвейеров с числом пиксельных процессоров не совсем корректно, поскольку конвейерная обработка подразумевает работу не только с пикселами, но и с вершинами, а значит, необходимо учитывать и число вершинных процессоров.
Поэтому число конвейеров может выступать в качестве корректной характеристики графического процессора только в том случае, если количество конвейеров совпадает с числом пиксельных и вершинных процессоров и блоков TMU, то есть когда каждый конвейер включает по одному вершинному и пиксельному процессору, а также по одному блоку TMU.
В то же время этот подход к архитектуре графического процессора нельзя признать оптимальным. Дело в том, что такая линейная организация конвейера подразумевает равномерное распределение нагрузки между отдельными стадиями конвейера. В то же время в реальных приложениях нагрузка на отдельные блоки графического процессора может быть различной [43, c.178].
Отчасти решить проблему оптимизации нагрузки графического процессора позволяет такая архитектура, при которой количество пиксельных процессоров не совпадает с количеством вершинных процессоров. При этом разработчикам приходится искать золотую середину между количеством вершинных и пиксельных процессоров, поскольку необходимо не переборщить с геометрическими характеристиками и в то же время не урезать красоты, получаемые мультитекстурированием и сложными пиксельными шейдерами. В подобном случае говорить о классическом конвейере не вполне корректно.
К примеру, в графическом процессоре NVIDIA GeForce (рисунок 3) используется шесть вершинных процессоров и 16 пиксельных процессоров [49].
Рисунок 3 - Схема графического процессора NVIDIA GeForce
Каждый из 16 пиксельных процессоров имеет два блока пиксельных программ и один текстурный модуль TMU. Если первый блок пиксельных программ на каждом конвейере может выполнять как арифметические операции, так и чтение текстур и нормализацию, то второй блок ограничен только арифметикой. Другими словами, первый блок связан с текстурами. Если блок не занимается текстурированием, то он может выполнять (в данный проход) пиксельное затенение. Второй всегда доступен для пиксельного затенения [13].
Исторически под числом конвейеров в графическом процессоре принято понимать число пиксельных процессоров (хотя это и не вполне корректно). Для рассмотренной архитектуры NVIDIA GeForce, как и для многих других графических процессоров, такой подход вполне приемлем, однако подобная организация лишь отчасти решает проблему сбалансированности нагрузки на GPU. Следующий шаг в этом направлении предложила компания ATI, перейдя на модульную, фрагментированную архитектуру в графических процессорах семейства ATI Radeon X1000.
Рассмотрим, к примеру, процесс формирования изображения в графическом процессоре ATI Radeon [49] (рисунок 4).
Рисунок 4 - Схема графического процессора ATI Radeon
Первый этап вполне традиционен — это обработка данных вершинными процессорами, которые вычисляют геометрию трехмерного изображения. На этом этапе данные (Vertex Data) обрабатываются восемью вершинными процессорами (Vertex Shader Processor).
После расчета геометрии вершин, отсечения скрытых поверхностей, обрезки и т.д. данные поступают в блок сборки (setup engine), содержащий блок растеризации геометрии, потом — в процессор распределения данных Ultra-Threading Dispatch Processor. Именно этот новый блок распределения позволяет говорить о мультипоточной концепции архитектуры графического процессора. Процессор распределения Ultra-Threading Dispatch Processor способен распараллеливать шейдерный код на сотни потоков (до 512 потоков), увеличивая эффективность выполнения пиксельных шейдеров[15].
После прохождения процессора распределения потоки поступают в пиксельные блоки (Quad Pixel Shader Cores). Каждый такой блок (всего в графическом процессоре их четыре) состоит из четырех объединенных вместе пиксельных процессоров, каждый из которых в состоянии обработать шейдер для блока 2x2 пикселов за такт. Соответственно пиксельный блок может обрабатывать шейдер для блока 4x4 пикселов за такт.
В данной архитектуре термин «конвейер», равно как и «пиксельный конвейер», уже утратил свое значение.
В то же время, несмотря на некорректность использования термина «число конвейеров» в архитектуре графических процессоров семейства ATI Radeon, необходимо отметить, что конвейерный способ построения изображения, применение отдельных вершинных и пиксельных процессоров остался неизменным. И хотя проблема оптимального распределения нагрузки между отдельными блоками GPU в архитектуре процессора ATI Radeon решена (хотя и не кардинально), данная архитектура не позволяет избавиться от еще одного недостатка конвейерной архитектуры GPU [1].
Нередко возникает ситуация, когда уже частично обработанные данные необходимо изменить. Для этого приходится дожидаться завершения всего процесса конвейерной обработки данных, при котором конвейер работает впустую, обрабатывая данные, которые все равно придется изменять и обрабатывать повторно.
Недостатки конвейерной обработки данных в графических процессорах можно было бы решить, перейдя к архитектуре унифицированных процессоров, то есть когда не существует отдельных вершинных или пиксельных процессоров, а есть процессоры общего назначения, способные исполнять как вершинные, так и пиксельные шейдеры. Для унифицированных процессоров потребуются и новые программы обработки, то есть шейдеры (Shader Model, SM). Унифицированные процессоры поддерживаются в API DirectX [24, c.160].
Самым главным событием, произошедшим с IТ-индустрией на рубеже первого десятилетия двадцать первого века, стало появление абсолютно новой графической платы AMD Radeon HD 7970. Много лет назад ATI Technotogies разработала уникальную микроархитектуру VLIW для своих графических карт. Именно эта платформа легла в основу всех известных видеокарт, начиная с серии Radeon HD 2000 и заканчивая топовыми продуктами линейки Radeon HD6000.
Суть VLIW очень проста. Обычно графическим процессорам приходится производить множество различных расчетов, причем большая часть их делается одновременно. Очевидный путь повышения быстродействия заключается в увеличении вычислительной мощности процессора и в совершенствовании его блока предсказания ветвлений. Проще говоря, процессор всегда должен знать, какие операции он может выполнять одновременно, а какие нет [46, c.6].
С точки зрения схемотехники и проектирования микрочипов это достаточно трудоемкая задача. Поэтому ATI Technotogies выбрала другой путь - программную оптимизацию. Технология VLIW (от англ. Vегу Long lnstгuction Word - очень длинная команда) предполагает создание длинных последовательностей инструкций и определяет порядок их выполнения центральным процессором видеокарты.
Таким образом, процессору не приходится тратить большую мощность на технические расчеты, поскольку они уже выполнены компилятором кода - задача графического процессора сводится к сверхбыстрому выполнению заранее определенных инструкций.
С 2006 года всеми наработками ATI Technotogies владеет компания AMD, прикладывающая серьезные усилия к развитию имеющихся технологий. В конце 2015 года стало очевидно, что одной концепции VLIW уже недостаточно для создания новых мощных продуктов нужна новая микроархитектура.
Так появилась архитектура Graphics Саrе Next - сокращенно GCN. Эта технология подразумевает новый подход к распараллеливанию инструкций. Основой шейдерного домена является блок SIMD Engine (от англ. Singte lnstruction Multiple Data - одна инструкция, множественные данные), состоящий из шестнадцати потоковых процессоров [25, c.220].
Каждый из них может выполнять одну VLIW-инструкцию, но применительно к разным данным. В каждой VLIW-инструкции может быть упаковано до четырех скалярных операций, что соответствует четырем арифметическим логическим устройствам. Другими словами, раньше процесс распараллеливания данных был организован с помощью заранее подготовленных инструкций, теперь же эта работа поручена нескольким отдельным SIМО-блокам [46, c.6].
Таким образом, если раньше производительность графической карты напрямую зависела от эффективности компилятора, точнее, от количества скалярных операций, которые можно заложить в одну VLIW-инструкцию, то новая технология GCN позволяет динамически распределять нагрузку между SIМD-блоками и добиться тем самым существенного увеличения быстродействия.
2.3 Новейшие достижения IT-индустрии в сфере хранения информации
С появлением технологии Hybrid Memory Cube оперативная память станет трехмерной, а ее пропускная способность увеличится в 12 раз по сравнению с нынешними модулями DDR3. Прототипы этой разновидности памяти бьют все рекорды по скорости работы, а выход первых образцов на рынок ожидается уже к 2017 году [33, c.54].
В то время как производительность центральных процессоров неуклонно возрастает, модули оперативной памяти RAM становятся все более похожи на «бутылочное горлышко» на пути передачи данных. Нынешние ОЗУ не в состоянии поставлять их процессору с достаточно высокой скоростью. Ограничителями выступают и малая полоса пропускания, и слишком низкая скорость чтения и записи. С выпуском каждого нового процессора положение все более усугубляется, ведь новинка требует увеличенного объема данных, которые должны поставляться ей с еще большей скоростью.
Одновременно с этим растет и потребность в экономичных и миниатюрных модулях памяти для использования в смартфонах и планшетных компьютерах. Этим устройствам всегда нужен большой объем оперативной памяти, который должен размещаться на крохотных платах [24, c.35].
Решению проблемы могла бы помочь новейшая разработка компаний Intel и Micron — оперативная память типа Hybrid Memory Cube. Она представляет собой память с многослойным расположением кристаллов. Эти слои соединяются друг с другом при помощи кремниевых контактов-стержней. Вся конструкция располагается на слое управляющей логики, который является новым подходом к архитектуре ОЗУ. Данный слой поставляет центральному процессору или его отдельным ядрам все необходимые данные с высокими показателями скорости и эффективности (Приложение 1).
В 2015 году производители впервые показали прототип Hybrid Memory Cube, построенный на четырехслойном пакете кристаллов памяти. Он обеспечивает пропускную способность 128 Гбит/с — если, конечно, материнская плата оснащена соответствующей инфраструктурой. Для сравнения: современный модуль памяти DDR3-1333 передает информацию со скоростью 11 Гбит/с[16].
Так что у производителей материнских плат впереди еще много работы: им предстоит создать такие образцы, которые были бы в состоянии транслировать огромные объемы данных от Memory Cube с наивысшей скоростью. Ведь кому нужна полоса пропускания памяти в 128 Гбит, если все прочие шины будут передавать данные слишком медленно. Да и остальные компоненты компьютера, например HDD и SSD, должны существенно прибавить в скорости чтения и записи.
Именно поэтому в будущем эти накопители, очевидно, будут заменены более прогрессивными, созданными на базе технологий типа Memristor, Millipede или подобных им. Такие накопители будут работать в пять раз быстрее нынешних твердотельных.
Memory Cube обеспечивается многочисленными кремниевыми «столбиками», которые передают данные от кристаллов памяти к уровню управляющей логики со скоростью до 1 Тбайт/с. От применения подобной технологии сильно выиграет операционная система Windows, которая во время работы постоянно записывает в RAM данные и считывает их оттуда. Программы, требующие интенсивных вычислений, также станут функционировать быстрее (например, значительно возрастет скорость обработки видео в соответствующих редакторах) [44, c.36].
Логический уровень у Hybrid Memory Cube позволит решить и еще одну проблему. Сегодня процессоры имеют до восьми ядер, и тенденция к увеличению их количества сохраняется. Современные модули RAM располагают всего одним подключением к процессору, которое управляется внешним контроллером памяти.
У Hybrid Memory Cube логический уровень может обращаться через матричный переключатель непосредственно к отдельному процессорному ядру. При этом коммуникации с другими ядрами или чипами ОЗУ станут происходить независимо друг от друга, в рамках параллельных процессов, а каждое отдельное подключение будет работать на полной скорости [33, c.56].
Благодаря этой особенности оперативная память сможет наконец-то идти в ногу с эволюцией современных процессоров. Если на рынке когда-нибудь появится пользовательский CPU с десятью ядрами, то логический уровень просто выделит два дополнительных «рубильника» в матричном переключателе, и скорость передачи данных через них останется максимальной.
По аналогичному принципу работают уже имеющиеся на рынке модули оперативной памяти RDIMM от компании Samsung. В них слои памяти тоже соединяются кремниевыми контактами, однако логический уровень управления отсутствует. Поэтому они, подобно обычным модулям RAM, обращаются к внешнему контроллеру ОЗУ, который соединяется с CPU лишь по одной шине. Тем не менее RDIMM имеет громадное преимущество по сравнению с обычной оперативной памятью: новые решения потребляют на 40% меньше энергии, чем модули DDR3[17].
Сокращение энергопотребления у новых модулей происходит в первую очередь из-за уменьшения расстояния, на которое передаются данные. Благодаря «умному» управлению работой памяти, осуществляемому логическим уровнем, Hybrid Memory Cube дополнительно экономит до 30% энергии на каждый передаваемый бит информации.
Намного более производительная память типа Memory Cube теоретически должна потреблять на 70% меньше энергии, чем нынешние модули DDR3. Каким при этом окажется тепловыделение, пока неясно. Ведь если данные станут передаваться так быстро и эффективно, то логично предположить, что рабочая частота ОЗУ будет очень высокой. В этом случае кристаллы DRAM станут сильно нагреваться. Таким образом, сэкономленная энергия, очевидно, будет расходоваться на охлаждение «слоеного пирога» дополнительным кулером.
Благодаря многослойному размещению кристаллов оперативной памяти и трехмерному строению интегрированных микросхем модули Hybrid Memory Cube имеют очень компактный форм-фактор. На материнской плате им требуется на 90% меньше пространства, чем современным модулям RAM.
Консорциум разработчиков Memory Cube хотел бы размещать оперативную память на материнских платах как можно ближе к CPU, графическому процессору и тем чипам, которые будут отвечать за выполнение специфических задач. Модули Hybrid Memory Cube могли бы оказаться полезными и для других устройств — например, телевизоров, смартфонов, планшетных ПК и т. п. Разработчики полагают, что благодаря этому новый тип памяти может очень быстро занять свое место на рынке. Уже с 2017 года оперативная память Hybrid Memory Cube будет устанавливаться в рабочие станции и серверы. Пользователям домашних компьютеров придется подождать ориентировочно до 2016 года, когда новые модули появятся на массовом рынке. Никто из участников консорциума не может назвать их стоимость, пока не начнется серийное производство [33, c.57].
Началом революции в области накопителей данных станет появление твердотельных дисков на основе памяти нового поколения, которые будут соединяться с системной платой по высокоскоростным интерфейсам. Уже сегодня серверные SSD, подключаемые через разъем PCI Express, обеспечивают более высокую скорость передачи данных по сравнению с классическими твердотельными носителями [19].
С выходом новых процессоров от компании Intel на базе микроархитектуры Ivy Bridge данное увеличение производительности затронет и домашние компьютеры. По прогнозам экспертов, в перспективе накопители данных будут обеспечивать время доступа на уровне оперативной памяти, а применение новых технологий приведет в ближайшие годы к слиянию ОЗУ и жесткого диска[18].
Завершится революция глобальными преобразованиями операционных систем, таких как Microsoft Windows или Mac OS X. Ведь чем быстрее работает жесткий диск, тем более узким местом в системе становится ОС. Именно к такому выводу пришла группа инженеров-исследователей из Университета Сан-Диего в ходе работы над накопителем под кодовым именем Moneta. В ближайшие несколько лет жесткие диски смогут сохранять данные со скоростью до 4 Гбайт/с. Это станет реальным благодаря применению совершенно новых технологий.
Используя SSD-накопитель, уже сегодня можно получить значительный прирост производительности ПК, однако предельная скорость передачи данных ограничена интерфейсом SATA III, с помощью которого диск подключается к системной плате. Теоретическая пропускная способность у него составляет 6 Гбит/с, но на практике даже самые быстрые SSD-носители, например OCZ Vortex 3, обеспечивают лишь 500 Мбайт/с.
Более высокой пропускной способности позволяет достичь преемник SATA III — интерфейс SATA Express, благодаря которому твердотельные диски смогут передавать данные со скоростью 1,6 Гбайт/с. Для обмена информацией SATA Express задействует другой высокоскоростной протокол — PCI Express 3.0.
Самые быстрые серверные SSD обеспечивают максимальную скорость передачи данных на уровне 3 Гбайт/с, а если новый интерфейс PCI Express 3.0 получит распространение, то она увеличится вдвое [44, c.36].
Среди всех типов запоминающих устройств предельную скорость передачи данных сегодня обеспечивает оперативная память (DRAM). Но как только на модуль памяти перестает поступать питание, она очищается. Однако с появлением устройств нового типа ситуация обещает измениться в лучшую сторону. Среди почти десятка претендентов можно выделить два типа памяти, которые смогут поступить в серийное производство до 2016 года: Phase Change Memory (память на основе фазового перехода, РСМ) и Resistive RAM (резистивная память, ReRAM).
В памяти на основе фазового перехода используется металлический сплав халькогенид, который в зависимости от прилагаемого напряжения принимает кристаллическую или аморфную структуру [8, c.35].
Ввиду того что в РСМ, как и во флеш-памяти, хранящиеся данные необходимо сначала удалить, по скорости работы чипы РСМ не могут сравниться с DRAM.
Резистивная же память подает больше надежд, но в настоящее время существуют лишь прототипы таких чипов, выпускаемые компаниями HP, Panasonic, Samsung и Sony и Mitsubishi Electric. В ReRAM все усилия направлены на то, чтобы сделать изоляционный материал токопроводящим, приложив к нему напряжение, в результате чего значение бита становится равным 1.
Чтобы изменить его, необходимо приложить обратное напряжение, которое восстановит изоляционные свойства материала. В отличие от флеш- и PCM-памяти технология ReRAM обеспечивает прямую перезапись данных. Скорости чтения и записи одинаковы и находятся на уровне оперативной памяти — идеальные предпосылки для получения высокопроизводительного накопителя будущего (Приложение 2).
Windows и другие ОС при столь высокой пропускной способности новых дисков не способны обеспечить эффективное сохранение данных. С массовым распространением SSD-накопителей пользователи уже забыли про длительное время загрузки программ, характерное для классических жестких дисков на магнитных пластинах [36, c.6].
Однако многие функции современных операционных систем все еще оптимизированы под стандартные HDD. Накопителям нового поколения необходима полная реорганизации ОС, так как они обладают более низким рабочим напряжением и имеют меньшее время доступа, что позволяет им выполнять большее количество операций в секунду.
Windows и прочие системы требуют значительной переработки. Какой именно объем работ по изменению ОС предстоит выполнить, выяснила группа исследователей из Университета Сан-Диего, создав устройство под кодовым именем Moneta, в котором используются РСМ — чипы памяти на основе фазового перехода. Оно подключается к компьютеру по интерфейсу PCI Express и, по утверждениям разработчиков, обеспечивает пропускную способность в 4 Гбайт/с[19] (рисунок 5).
Рисунок 5 - Сравнительный анализ скорости передачи
данных для различных накопителей
Moneta работает под управлением ОС Linux, но отличия от Windows или Mac OS X, касающиеся операций сохранения данных, в данной системе незначительны. Результаты измерений скорости передачи данных справедливы в отношении всех современных ОС, и они неутешительны: при использовании РСМ операционная система существенно замедляет работу памяти (Приложение 2).
Архитектура Windows 7 и других современных ОС оптимизирована в первую очередь под работу с магнитными жесткими дисками (HDD). Так, функционирование системы значительно замедляет планировщик ввода/вывода (Input/Output Scheduler), который управляет всеми обращениями к жесткому диску. Обычно операция над файлом состоит из запросов (Request) на запись или чтение данных с накопителя. Планировщик ввода/вывода перераспределяет запросы во избежание возникновения сбоев при передаче информации [39, c.130].
Данная модель целесообразна в случае с жестким диском на основе магнитных пластин (HDD), но при использовании SSD-накопителя необходимость в подобных действиях отпадает, так как твердотельный носитель обладает очень малым временем доступа. Стоит отметить, что в ОС Linux используется планировщик ввода/вывода Noop, который объединяет несколько запросов без их предварительного перераспределения и передает их драйверу жесткого диска.
Но и на эту операцию затрачивается время, так как планировщику необходимо каждый раз создавать новый поток команд. После передачи данных диску поток команд, отвечающий за операции чтения/записи, приостанавливается, а после выполнения жестким диском своей задачи он должен быть вновь активирован — это необходимо для того, чтобы HDD смог «отчитаться» об успешном завершении операции [39, c.132].
Данный подход целесообразен на компьютерах, использующих двуядерные CPU. В современных же многоядерных системах, одновременно выполняющих до восьми потоков команд, такие ситуации возникают редко. Чтобы увеличить скорость передачи данных, разработчики Moneta сначала избавились от планировщика. В результате они добились того, чтобы данные передавались без предварительного распределения и объединения.
Обычно запрос состоит из нескольких команд, а драйвер диска осуществляет их сбор для последующего помещения в кеш-память накопителя. В процессе выполнения данной операции напрасно затрачивается время, Разработчики Moneta также урезали запросы, которые стали содержать всего лишь одну команду длиной 64 бита. Данные меры позволили существенно повысить количество операций ввода/вывода, выполняемых Moneta, — приблизительно до одного миллиона в секунду (Приложение 3).
Однако данные изменения еще не позволяют достичь максимального быстродействия. Требуется еще одна операция по модификации, при которой происходит изменение архитектуры операционной системы. Дело в том, что в современных ОС программы, инициирующие операции по сохранению данных, выполняются с ограниченными правами, то есть функционируют в рамках пользовательского режима.
Напротив, закрепленный за ОС режим ядра (привилегированный режим) не знает никаких ограничений — он и управляет в конечном итоге аппаратными средствами. Таким образом, запросы на сохранение данных, перед тем как быть обработанными, должны быть сначала переведены в режим ядра ОС [4, c.81].
Разработчики Moneta добились отмены обращения к ядру, создав собственный драйвер, который работает в пользовательском режиме. Таким образом, ОС практически не вмешивается в процесс передачи данных. Под вопросом остаются файловая система и система управления правами, определяющая, например, кому из пользователей разрешен доступ к тому или иному файлу. Обмен данной информацией между приложением и ядром выполняется независимо от процесса передачи данных. Благодаря этому не нарушается модель безопасности архитектуры ОС (Приложение 3).
Таким образом, в будущем любая программа сможет напрямую и без потери времени получать доступ к файлу для его чтения или записи. Операционная система будет «оставаться в стороне», в то время как драйвер жесткого диска станет отвечать за управление процессами сохранения данных. Единственная задача ОС будет заключаться в том, чтобы посредством файловой системы принимать участие в протоколировании данных изменений. Следовательно, высокая скорость работы дисковой подсистемы возможна только в модифицированной ОС.
3.1 Прогноз развития процессорной и графической подсистем ПК
Еще недавно казалось, что «гонка вооружений» в индустрии микропроцессоров для ПК практически окончена. Хотя производители постоянно выдавали еще более мощные, более мобильные, более экономичные, более универсальные чипы, возможности сегодняшних ПК и мобильных устройств уже не зависят в такой мере от CPU, как это было в конце 90-х и начале 2000-х годов.
Однако основные производители – Intel и AMD не останавливаются на достигнутом. После передышки пары-тройки последних лет они снова готовы удивлять пользователей шедеврами микропроцессорного совершенства. По крайней мере, их приготовления свидетельствуют именно об этом.
После выпуска Intel микроархитектуры Nehalem появились процессоры на базе 32-нанометровой производственной технологии - Sandy Bridge. Отличия Sandy Bridge от предшествующей микроархитектуры Nehalem заметны на любом уровне. Монолитный 32-нм кристалл объединил вычислительные ядра, графическое ядро, L3-кэш, контроллер шины PCI Express и памяти [19, c.5].
За счет такого соседства основных компонентов инженеры Intel добились высокой эффективности взаимодействия между ними, особенно для графического ядра, которое теперь имеет прямой доступ к контроллеру памяти и L3-кэшу. Внедрение единой внутренней кольцевой шины дало возможность существенно увеличить пропускную способность на всех основных маршрутах передачи данных.
Процессор может содержать два или четыре процессорных ядра и поддерживать технологии Hyper-Threading и Turbo Boost. Тактовые частоты процессоров могут достигать 3,4 ГГц, а за счёт Turbo Boost частота может увеличиваться до 3,8 ГГц. Объём разделяемого между ядрами (включая графическое) LЗ-кэша может достигать 8 Мб. Этот кэш работает на частоте процессора и имеет существенно более высокую, чем у предшественников, пропускную способность [3, c.11].
Процессорные ядра получили дополнительный L0-кэш декодированных инструкций и оптимизированный блок предсказания переходов, что увеличило удельную производительность CPU и способствовало снижению энергопотребления.
Была введена поддержка новых наборов инструкций: AES-NI - ускоряет криптографические алгоритмы; AVX - вводит SIMD операции с 256-битными векторами, темп выполнения которых процессором не уступает скорости исполнения 128-битных SSE инструкций.
Графическое ядро получило многочисленные усовершенствования в части шейдерных процессоров, удвоивших свою производительность. К тому же в него включены аппаратные блоки для кодирования/декодирования HD-видео, которые доступны как программным плеерам, так и утилитам обработки видеоконтента. Тепловыделение (TDP) процессоров Sandy Bridge для настольных систем лежит в диапазоне 35-95 Вт, а для мобильных 18-55 Вт. [3, c.12].
Вместе с тем усугубились различия и между Core i7 и Core i5 – помимо наличия или отсутствия технологии Hyper-Threading старшие процессоры обладают увеличенным L3-кэшем. Казалось бы, процессоры Sandy Bridge обладают тем же набором внешних интерфейсов, что и их предшественники, например, Clarkdale: два канала DDR3; 16 линий PCI Express 2.0; FDI-интерфейс для связи графического ядра с мониторами; шина DMI для соединения с южным мостом.
Несмотря на это, новые процессоры устанавливаются в новое гнездо LGA1155, которое несовместимо с отличающимся на один контакт LGA1156, ни электрически, ни механически. Причина такого перехода кроется в коренной переработке схемы питания. Sandy Bridge обладают новой версией технологии Turbo Boost и используют три независимых напряжения, а не два [42, c.33].
Графическое ядро теперь выделено в отдельный узел, работает на собственной частоте и с собственным питанием. Именно это свойство позволяет ему изменять свои рабочие параметры независимо от вычислительных ядер и даже полностью отключаться, когда оно не задействовано. Новые чипсеты поддерживают SATA 6 Гбит/с. Два SATA порта из шести могут работать с повышенной скоростью, и это очень своевременно, учитывая появление быстрых SSD с интерфейсом. Новые наборы системной логики поддерживают PCI Express 2.0, так что удвоенную пропускную способность этой шины смогут задействовать не только дискретные графические карты, но и другие контроллеры, например, USB 3.0.
Ранее Core i5 не позволяли устанавливать частоту памяти выше DDR3-1333. Новые Core i5 имеют более широкий набор множителей, допускающий даже DDR3-2133 и выше. L3-кэш функционирует теперь синхронно с ядрами и менять его частоту нельзя. Turbo Boost 2.0 вместе с Enhanced Intel SpeedStep постоянно варьируют рабочую частоту процессоров. В результате она непрерывно скачет и зависит в первую очередь от количества активных ядер и типа вычислительной нагрузки. Прирост тактовой частоты при включении Turbo Boost у процессоров Sandy Bridge стал меньше (300-400 МГц), чем у Lynnfield (533-667 МГц), но они переходят в турбо-режим заметно чаще своих предшественников [16, c.7].
Разгон множителем привел к существенному упрощению самой этой процедуры. Ранее разгон процессора был целой наукой. Необходим был тонкий подбор правильных напряжений на различных процессорных блоках и шинах. Всё это сильно влияло на стабильность системы. Теперь же процесс разгона стал куда более прямолинеен. Увеличение множителя поднимает лишь результирующую частоту процессора, но не влияет на скорость работы других составляющих системы. Поэтому, при разгоне следить за частотой памяти не нужно - она будет постоянна.
Итак, новое поколение микроархитектуры Core i существенно лучше предыдущего поколения с любой точки зрения. Например, преимущество Core i5-2400 (3.1 ГГц) над Core i5-650 (3.2 ГГц) составляет от 31-75%. Неудивительно, что новому Core i5-2400 неплохо удаётся соперничать не только с аналогами прошлого поколения, но и с 4-х ядерным процессором Core i7-950 с той же частотой, опережая его в играх на 3-7%, а в обработке видео порой на 5-14% [45, c.49].
Таким образом, Sandy Bridge - это отличные процессоры для АРМ. Это закономерно, поскольку большое внимание при их разработке уделялось увеличению эффективности работы с данными в кэше и памяти, налицо более высокая, чем у предшественников эффективность процессоров с микроархитектурой Sandy Bridge. Сейчас Intel выпускает процессоры на базе 22-нм технологии - поставки таких чипов, именуемых Ivy Bridge, она начала в апреле 2016 года.
Хотя формально в привычной с 2013 г. парадигме «тик-так» новая архитектура должна являть собою лишь переведенный на новый техпроцесс и минимально модифицированный вариант прежней Sandy Bridge, в данном случае «тик» удался существенно более масштабным [3, c.13].
Во-первых, 22-нм технологию с применением отлично отработанных планарных (двумерных) транзисторов соблюсти вряд ли бы удалось. Слишком велики для таких сверхмалых транзисторов паразитные токи утечки — физические параметры их затворов оказываются недостаточными, чтобы удержать электроны от несанкционированного проникновения. Даже фирменный диэлектрик High-k, слой которого пришлось бы сделать чрезвычайно тонким, ситуации бы не спас.
Инженеры Intel разработали и предложили принципиально новое решение: транзистор Tri-Gate, с полным правом называемый трехмерным. В отличие от планарной конструкции, он подразумевает нанесение токоведущих слоев на не плоскую, а на структурную кремниевую подложку. Структура эта напоминает опустошенную коробку из-под шоколадных конфет: заглубленные ячейки, разделенные тонкими кремниевыми стенками. Затворный слой проходит поперек и поверх такой стенки, образуя с ней П-образное пересечение, и три отрезка этой «П» выступают в качестве затворов.
Таким образом, надежность запирания транзисторного канала существенно повышается, а вместе с нею — и управляемость им. Специалисты компании утверждают, что переход к технологии Tri-Gate обеспечивает снижение рабочего напряжения на 0,2 В (гигантская величина для отдельного 22-нм транзистора) и ускорение срабатывания затвора на 37%, причем ток утечки с большой точностью можно полагать в этом случае нулевым [42, c.37].
Сокращение тепловых потерь при тех же рабочих частотах позволяет повысить производительность отдельного транзистора почти на 40%. Инженеры Intel пошли, однако, дальше и внедрили в ЦП Ivy Bridge немало заслуживающих внимания новшеств, постаравшись по максимуму обеспечить обратную совместимость с оборудованием (главным образом, системными платами), рассчитанным на взаимодействие с Sandy Bridge.
Потребление энергии у Ivy Bridge действительно ниже, чем у Sandy Bridge, однако формальные требования к TDP оставлены прежними, чтобы гарантировать, что выпускаемые для новинок системные платы не будут ориентироваться на более щадящие требования к энергопотреблению, а это позволит им выполнить требования обратной совместимости с ЦП предыдущего поколения для гнезда LGA 1155. Возможно, что в будущем появятся и специализированные экономичные платы — уже без поддержки Sandy Bridge [45, c.49].
Ivy Bridge превосходит Sandy Bridge по всем параметрам, и первое, — это обновленная графическая подсистема. Наконец-то процессоры Intel обзавелись встроенным графическим ядром HD Graphics 4000 с поддержкой DirectX 11. Кроме того, интегрированная графическая подсистема Core третьего поколения обогатилась Built-In Visuals — набором дополнительных технологий, призванных существенно расширить возможности видеоотображения без участия дискретного адаптера. Процессоры Ivy Bridge сами обеспечивают вывод трехмерного изображения и беспроводную передачу видеопотока на совместимые устройства.
Фирменная разработка Intel Identity Protection позволяет снабдить любой ПК или ноутбук системой двухфакторной идентификации для повышения надежности доступа к персональным данным. Встроенный аппаратный генератор случайных чисел высвобождает дополнительные ресурсы ЦП для общих расчетов, а поддержка более скоростной оперативной памяти с меньшими рабочими напряжениями помогает экономить энергию.
Intel строит амбициозные планы: в 2016 году перейти на 10-нм технологическую норму, а затем - на 7-нм и 5-нм. В долгосрочном плане развития продуктовой линейки компании говорится, что в настоящее время корпорация занимается разработкой 14-нм технологии производства и приступила к исследованиям в области 10-нм, 7-нм и 5-нм технологий, к внедрению которых планирует приступить в дальнейшем [37, c.122].
В настоящее время Intel подготавливает заводы для внедрения 14-нм технологической нормы. Приступить к серийным поставкам 14-нм процессоров Intel планировал в 2017 году, а к 10-нм чипам – в 2016 году. Временные интервалы для дальнейшей миниатюризации глава Intel не уточнил, но известно, что с 2007 года корпорация придерживается стратегии, согласно которой технологическая норма меняется каждые два года.
В течение последних нескольких лет позиции АМD в сегменте центральных процессоров различных категорий были довольно слабыми, и с точки зрения производительности, ее продукты не выдерживали конкуренции с решениями компании Intel. Однако осенью 2015 года АМD представила новое поколение CPU под кодовым именем Bulldozer. Данные чипы, выпускающиеся по стандартам 32-нанометрового техпроцесса, имеют от четырех до восьми ядер и демонстрируют хорошее соотношение цены и производительности [7, c.60].
Одно из самых важных нововведений в михроархитектуре процессоров АМD Bulldozer заключается в компоновке ядер х86. Для упрощения масштабируемости используется модульный подход: х86 – ядра попарно расположены в одном модуле. Таким образом, новые восьмиядерные процессоры оснащаются четырьмя модулями, шестиядерные - тремя, а четырехъядерные - двумя. Основное преимущество данной схемы состоит в повышенной производительности при многопоточной нагрузке, особенно с упором на целочисленные вычисления.
Одним из самых важных блоков процессора является блок вещественных вычислений (FPU, Floating Point Unit), который отвечает за операции с плавающей точкой, а также исполнение инструкций и команд. На сегодняшний день компании AMD удалось создать самый мощный и функциональный FPU. В его основе лежат два универсальных FМАС-устройства (от англ. fused multiply-accumulate - устройства для сложения и умножения) разрядностью 128 бит каждое, способных выполнять весь спектр поддерживаемых команд [24, c.202].
В микроархитектуре АМD K10 процессоров Phenom II данные вычислительные устройства не были универсальными и каждое из них в отдельности отвечало только за функции умножения или сложения. По сравнению с микроархитектурой AMD K10 ряд изменений произошел и в подсистеме кэш-памяти. Кэш второго уровня теперь доступен не только одному ядру, как это было ранее, а каждому модулю. При этом его размер вырос с 512 кбайт до 2 Мбайт, то есть суммарный объем кэш-памяти второго уровня теперь составляет 8 Мбайт.
Контроллер памяти в процессорах AMD Bulldozer также эволюционировал. Одной из серьезных проблем моделей предыдущих поколений была и остается низкая по современным меркам частота работы оперативной памяти: для чипов АМD Phenom II Х6 пределом были 1900 МГц. При этом у новых Bulldozer только номинальная частота памяти составляет 1866 МГц, а в условиях разгона можно добиться стабильной работы системы и при значении 2400 МГц.
Впервые появившаяся в продуктах АМD линейки Phenom II технология автоматического разгона процессорных ядер Turbo Core получила развитие , и теперь она во многом похожа на Turbo Boost, используемую компанией Inte1. Главной особенностью второй версии технологии Turbo Core стало увеличение тактовой частоты процессора в зависимости от загрузки отдельных ядер. Например, при полноценном использовании всех них данный показатель модели АМD FX-8150 возрастает до 3,9 ГГц, а если нагрузка приходится не на все ядра, то частота задействованных может достигать 4,2 ГГц.
По результатам тестирования топовый процессор AMD FX-8150 на базе микроархитектуры Bulldozer так и не смог обойти своего главного конкурента - модель Intel Core-i7 2600К. Однако разница в производительности уже не выглядит такой большой, как в сравнении с чипами линейки AMD Phenom II [7, c.61].
С развитием нового модельного ряда компании Intel будет все сложнее удерживать лидерство на фоне новых процессоров с микроархитектурой Bulldozer. При этом подобная конкуренция будет только на руку конечным пользователям, которые смогут получить продукты с хорошим соотношением цены и качества.
С переходом на стандарты 32-нанометрового технологического процесса привычно «горячие» чипы АМD существенно снизили свой нагрев при работе под нагрузкой. Кроме того, новые процессоры АМD Bulldozer с разблокированным множителем обладают отличным разгонным потенциалом. Если разгон чипов предыдущей линейки Phenom II до частоты 4 ГГц и более с использованием воздушного охлаждения был уделом энтузиастов, то теперь можно без труда добиться повышения тактовой частоты до 4,8-5 ГГц. В мае 2016 года компания AMD объявила о выходе первых ПК с ее гибридными процессорами второго поколения, известными под кодовым именем Trinity. Чипы Trinity стали ответом AMD на запуск в апреле процессоров Intel Ivy Bridge. В отличие от Ivy Bridge процессоры Trinity выпускаются на базе 32-нм, а не 22-нм технологии. Переход на новые стандарты инженеры AMD планируют осуществить только в 2017 году.
Все новые чипы AMD содержат графический контроллер на одном кристалле вместе с основными ядрами (то есть являются гибридными). Значение TDP процессоров в зависимости от модели составляет от 17 до 35 Вт. По словам представителей AMD, новые чипы имеют удвоенную производительность на каждый ватт потребляемой мощности - это если сравнивать с гибридными процессорами первого поколения (Llano) [24, c.181].
Процессоры семейства Trinity обеспечивают максимальный прирост производительности по сравнению с чипами Llano в среднем на 29%, причем рост графической производительности - до 56%. Новые чипы способны обеспечить до 12 часов автономной работы ноутбука. Также они поддерживают технологию AMD Start Now, которая обеспечивает выход системы из режима сна за несколько секунд.
В числе дополнительных опций семейства Trinity - ряд технологий обработки видео, включая аппаратное декодирование Н.264, MPEG- 2, VC-1, MVC, DivX и WMV, а также встроенная функция шумоподавления. Чипы поддерживают DirectX 11 и Full HD и могут работать совместно с дискретным видеоадаптером, повышая скорость работы графики на 75% [7, c.62].
Таким образом, само появление новых процессоров, транзисторы в которых имеют улучшенную структуру Tri-Gate и выполнены по 22-нм техпроцессу, опровергает предположения о том, что знаменитый закон Мура скоро прекратит свое действие. Более 40 лет назад один из основателей Intel Г. Мур предсказал, что в будущем число транзисторов в чипах будет удваиваться каждые два года. При этом, фактическая скорость развития в последние годы даже выше.
Современные модели графических процессоров (в составе видеоадаптера) могут полноценно применяться для общих вычислений (GPGPU). Примерами таковых могут служить чипы HD 7990 (от AMD) или GTX 690 (от nVidia).
GPGPU (англ. General-purpose graphics processing units — «GPU общего назначения») — техника использования графического процессора видеокарты, который обычно имеет дело с вычислениями только для компьютерной графики, чтобы выполнять расчёты в приложениях для общих вычислений, которые обычно проводит центральный процессор. Это стало возможным благодаря добавлению программируемых шейдерных блоков и более высокой арифметической точности растровых конвейеров, что позволяет разработчикам ПО использовать потоковые процессоры для не-графических данных. Примеры реализации GPGPU [48]:
1. Технология CUDA компании Nvidia, позволяющая программистам реализовывать на языке программирования Си (а также C++/C#) алгоритмы, выполнимые на графических процессорах ускорителей GeForce восьмого поколения.
2. AMD FireStream - технология, позволяющая программистам реализовывать алгоритмы, выполнимые на графических процессорах ускорителей ATI.
CUDA дает разработчику возможность по своему усмотрению организовывать доступ к набору инструкций графического ускорителя и управлять его памятью, организовывать на нем сложные параллельные вычисления. Простыми словами, технология CUDA помогает задействовать графический процессор (GPU) в помощь или полной разгрузкой центрального процессора (CPU) [23, c.47].
Технологию CUDA поддерживают любые видеоадаптеры GeForce 8xxx и выше (в том числе и для ноутбуков). Технология CUDA «по умолчанию» включена в драйверах NVIDIA - CUDA Driver входит в состав драйверов видеокарт.
Самый наглядный пример преимущества CUDA - обработка и просмотр Full HD видеофильмов или кодирование «тяжелого» видео. Первыми оценили возможности NVIDIA CUDA программисты. Благодаря этой технологии появилась vReveal - программа, предназначенная для улучшения качества непрофессионального видео, снятого на мобильных телефонах, цифровых камерах и других карманных устройствах. vReveal использует инструменты для стабилизации, повышения яркости и четкости видео. Также программа повышает детализацию видео низкого разрешения и устраняет шумы. Используя технологию NVIDIA CUDA для реализации параллельных вычислений на GPU, vReveal быстро устраняет дрожание, темноту, шум и смазывание в потребительском видео. Алгоритм программы умеет чистить от шумов, устранять тряску, осветлять, повышать контраст, увеличивать насыщенность [5].
Таким образом, современные графические адаптеры — это настоящее рукотворное чудо, которое создается в течение нескольких лет командой из сотен инженеров. Процессоры высокопроизводительных трехмерных ускорителей состоят из миллиардов транзисторов, что является залогом отличной производительности и гарантирует высочайшее качество изображения в играх.
Поэтому интерес к ним вполне оправдан, хотя далеко не каждый потребитель может позволить себе такую плату, особенно если речь заходит о самых быстрых решениях — GeForce GTX Titan и Radeon HD 7990. Данные устройства стоят более 30 000 рублей. Эти новинки будут доминировать на рынке высокопроизводительных видеокарт вплоть до четвертого квартала 2017 года, поскольку компании AMD и NVIDIA пока отложили до конца года анонс своих новых флагманских решений серий Radeon HD 8000 и NVIDIA GeForce GTX 700 соответственно.
Видеоплаты GeForce GTX 680, GeForce GTX 670 и Radeon HD 7970 до сих пор не потеряли актуальности, хотя и заметно медленнее, зато стоят в полтора-два раза дешевле, поэтому представляют собой золотую середину между заоблачным быстродействием и приемлемой ценой. Сравнительный анализ новейших графических адаптеров представлен в Приложении 4.
Чип NVIDIA GK110 состоит из 7,1 млрд транзисторов, содержит 2688 ядер CUDA и выпускается по 28-нанометровому технологическому процессу на мощностях тайваньской компании TSMC. GK110 — это один из самых сложных производимых серийно процессоров в мире и самый быстрый из когда-либо созданных NVIDIA видеочипов [2, c.58].
Неслучайно суперкомпьютер под названием Titan, установленный в лаборатории Министерства энергетики США и состоящий из 16 688 вычислителей Tesla K20X, возглавил рейтинг самых быстрых суперкомпьютеров мира в ноябре 2016 года. Первоначально NVIDIA не планировала выпускать видеокарту на основе GK110, однако вследствие переноса даты анонса графических плат нового поколения все же решилась представить GeForce GTX Titan — самый быстрый и дорогой однопроцессорный ускоритель на рынке [29, c.70].
В плане графической архитектуры GeForce GTX Titan идентичен решениям линеек GeForce GTX 680/670/660 Ti, базирующимся на чипе GK104 и архитектуре Kepler. Разница между этими ускорителями заключается в количественных, а не качественных показателях. У GeForce GTX Titan в два раза больше ядер CUDA, чем у GeForce GTX 670, также у «титана» втрое больше памяти (6 Гбайт), в полтора раза более широкая шина памяти (384 бит) и более сложная печатная плата. GeForce GTX Titan поддерживает технологию автоматического разгона GPU Boost 2.0 и способен ускоряться в среднем до 876 МГц без вмешательства пользователя.
Новая технология отличается от предыдущей версии тем, что при выборе частоты и подаваемого на графический чип напряжения ориентируется не на потребляемую видеокартой мощность, а на максимально допустимую температуру графического процессора. Ее значение пользователь может задавать самостоятельно.
Графические процессоры от компаний AMD и NVIDIA построены таким образом, что способны обрабатывать одновременно множество потоков инструкций. В потоковом мультипроцессоре от NVIDIA - SMX (на рисунке 6 он в центре) имеется 192 ядра CUDA.
Рисунок 6 - Схема графического процессора NVIDIA KEPLER
Каждые два SMX образуют один кластер графической обработки (GPC), у чипа GK104 на базе архитектуры Kepler их четыре. Он располагает 1536 шейдерными процессорами, которые используются весьма эффективно. В решениях AMD четыре векторных блока, в каждом из которых имеется 16 шейдеров, объединены в один вычислительный (Compute Unit). Графический процессор Tahiti имеет 32 вычислительных блока и, соответственно, 2048 шейдеров[20].
Каждый векторный блок работает независимо от других, благодаря чему достигается высокая эффективность при выполнении одновременно нескольких списков команд (рисунок 7). Топовые видеоплаты NVIDIA и AMD предоставляют возможность вывода изображения на несколько мониторов. У AMD данная технология называется Eyefinity, у NVIDIA — Surround Gaming.
Если компания NVIDIA сфокусировалась на разработке самой быстрой однопроцессорной видеокарты, то AMD поступила иначе и объединила два графических чипа Tahiti XT. Двухпроцессорные видеоадаптеры на базе топовых графических процессоров AMD Tahiti не являются чем-то новым.
Рисунок 7 - Схема графического процессора AMD TAHITI
Сдвоенные чипы Tahiti XT в составе Radeon HD 7990 носят кодовое название Malta [20, c.9]. Radeon HD 7990 — это фактически две Radeon HD 7970, объединенные на одной плате. Двухчиповая видеокарта оборудована в общей сложности 4096 потоковыми процессорами, двумя 384-разрядными шинами памяти, к каждой из которых подключено 3072 Мбайт GDDR5. Связь между чипами осуществляется по технологии CrossFire. Но этого AMD показалось мало, поэтому она позволила своим партнерам выпустить собственные версии Radeon HD 7990 нестандартного дизайна. Лучше всех с этой задачей справилась тайваньская компания ASUS: ее графический ускоритель ASUS Ares II оказался не только самым быстрым по результатам тестирования, но еще и достаточно тихим. Секрет заключается в улучшенной печатной плате, которая позволила производителю разогнать графические чипы до 1050 МГц, а также предустановленной системе жидкостного охлаждения, благодаря которой Ares II стала еще и самой холодной платой: ее графические процессоры под нагрузкой разогрелись всего до 58 °C [2, c.60].
Таким образом, сегодня графические процессоры уже достигли той точки развития, когда многие практические вычислительные задачи могут с легкостью решаться с их помощью, причем быстрее, чем на многоядерных системах. Будущие вычислительные архитектуры станут гибридными системами с графическими процессорами, состоящими из параллельных ядер и работающими в связке с многоядерными ЦП.
3.2 Прогноз развития подсистемы хранения информации
Запоминающие устройства будущего - это компактные и недорогие носители с более высокой скоростью работы, нежели у SSD-накопителей на основе микросхем флеш-памяти. Твердотельные диски в настоящее время пользуются огромной популярностью – носители данных на основе ячеек флеш-памяти встречаются практически везде: в планшетах, смартфонах, ноутбуках и даже десктопных компьютерах. Эти быстрые запоминающие устройства обеспечивают высокую производительность в сочетании с мощной аппаратной частью. Компьютерные энтузиасты, избавившись от старых винчестеров на магнитных дисках, также отдают предпочтение SSD [4, c.83].
Однако при этом производители и пользователи делают ставку на заведомо неэффективную технологию. Дело в том, что флеш-память изначально не разрабатывалась для накопителей большой емкости, к тому же для полупроводниковой памяти она обеспечивает слишком низкую скорость работы. Не стоит забывать и об износе в процессе использования флеш-накопителей.
Оперативная память и центральный процессор компьютера выполняют обработку данных минимум в 20 раз быстрее операций чтения и записи, осуществляемых SSD-накопителем на основе флеш-памяти. Если бы все было иначе, мы бы уже были владельцами устройств, которые включались бы мгновенно и сохраняли данные со скоростью, с которой они обрабатываются или передаются по сети [44, c.38].
В качестве возможных преемников твердотельных накопителей на основе флеш-памяти рассматриваются различные технологии хранения данных, исследования которых сейчас проводятся в лабораториях и которые в отдельных случаях применяются на практике . В разработке высокоскоростных запоминающих устройств будущего, сулящих многомиллиардные доходы, участвуют такие крупные компании, как IВМ, Toshiba и Fujitsu. Только они располагают ресурсами, достаточными для изучения десятков способов создания запоминающего устройства с более высокими скоростью чтения и записи, надежностью хранения данных и энергоэффективностью по сравнению с SSD-накопителями.
Рассмотрим, какой потенциал таят в себе МRАМ, FeRAМ, РСМ и прочие технологии, а также о том, как они работают и когда смогут использоваться в производстве накопителей для массового рынка (некоторые - уже с 2017 года). В ближайшие несколько лет будет ощущаться острая потребность в технологиях, которые могут прийти на смену флеш-памяти, так как SSD-накопители на ее основе уже практически исчерпали свой потенциал [14, c.37].
Для повышения плотности записи, которое позволяет добиться уменьшения размеров таких носителей, требуются значительные усилия и материальные затраты. Срок службы и энергоэффективность практически не поддаются оптимизации. Причиной этого является принцип работы ячейки флеш-памяти. В общем виде ее можно представить как транзистор с тремя контактами – источником питания, управляющей цепью и стоком. Управляющая цепь пропускает ток или блокирует его, что соответствует значениям «1» или «0».
Из транзисторов состоят также процессоры и оперативная память, но оба эти компонента теряют данные после отключения электроэнергии. Поэтому ячейка флеш-памяти имеет дополнительный элемент - плавающий затвор, который способен хранить электрический заряд в виде электронов в течение продолжительного времени.
Сообщение заряда плавающему затвору осуществляется путем подачи напряжения от 10 до 20 В. Чтение ячейки происходит с помощью измерительного тока слабой силы. Если он проходит от истока к стоку, плавающий затвор теряет заряд, а ячейка принимает значение «1». Если же ток измерения блокируется, значит, плавающий затвор находится в заряженном состоянии, что соответствует значению «0» (Приложение 5). К главным проблемам накопителя на основе флеш-памяти относится потребность в высоком напряжении для записи данных или их удаления из ячеек [30, c.35].
Запоминающий элемент плавающего затвора плохо удерживает электроны. Поэтому ему необходим толстый слой изоляции, преодолеть которую электроны могут только при высоком напряжении. Высокое напряжение снижает скорость доступа, так как требуется время для его выработки. Кроме того, оно сокращает срок службы ячейки памяти, так как при каждой операции записи данных в нее и ее очистке теряется небольшая часть изоляционного слоя.
Ячейки памяти обычных SSD-накопителей, доступных в продаже, рассчитаны в среднем на 10000 операций перезаписи, после чего они перестают быть пригодными к использованию. Чувствительность ячеек флеш-памяти требует наличия дорогостоящих контроллеров и отточенной технологии записи, что тоже отражается на скорости и энергопотреблении. С уменьшением площади ячеек флеш-памяти обостряется проблема срока службы, так как толщина изоляционного слоя постоянно сокращается [39, c.132].
Попытка решения именно данной проблемы была предпринята при создании накопителя на основе памяти SONOS. В разработанной компаниями Philips и Spansion технологии для записи требуется в два раза меньшее напряжение по сравнению с флеш-памятью. Благодаря этому накопитель на основе SONOS способен выдержать в 1000-10000 раз больше циклов перезаписи. Ячейки SОNОS памяти имеют такую же структуру, как и у флеш-памяти, однако запоминающий элемент состоит не из кремния, а из нитрида кремния.
Данный материал обладает более равномерной молекулярной структурой, что позволяет прочно удерживать электроны. Поэтому изоляционный слой может быть тоньше и иметь менее сложное строение, что обеспечивает высокую компактность и простоту технологии производства (Приложение 6).
К тому же для записи данных в ячейки SОNОS-памяти и их очистки требуется более низкое напряжение (от 5 до 8 В). На его выработку затрачивается в два раза меньше времени, чем в случае с флешпамятью. Для массового рынка размеры и стоимость производства чипов еще не достигли оптимальных значений, но, когда дальнейшее уменьшение размеров флеш-чипов станет невозможным , в игру вступит SONOS [30, c.36].
Вместо 10000 циклов записи, которые может выдержать флеш-память, ячейка на основе FeRAМ, по имеющейся информации, теряет свою способность к хранению данных после 10 квадриллионов циклов перезаписи, то есть она практически вечна. Над этой технологией работают исследователи таких компаний, как Ramtron, Fujitsu и Texas Instruments. В отличие от флеш- и SОNОS-памяти ферроэлектрическая сохраняет данные путем смещения атомов - операции, которая теоретически может выполняться неограниченное количество раз .
В FeRAМ измерительный ток проходит через ферроэлектрик. В структуре данного материала ток записи способен смещать атомы вверх и вниз, изменяя при этом электрическую проводимость материала, что для содержимого ячейки соответствует значениям «0» или «1». Эта так называемая поляризация сохраняется даже после прекращения подачи управляющего напряжения [8, c.38].
При чтении транзистор путем подачи измерительного тока переводит ячейку в определенное состояние, сообщая ей значение «0». Если ячейка уже содержит «0», импульс тока измерения проходит незаметно и этот показатель передается контроллеру. Если же ячейка содержит «1», то изменение поляризации приведет к возникновению короткого импульса в токе измерения, который будет передан усилителем сигнала в виде значения «1». После этого происходит изменение поляризации и восстановление первоначального значения «1» (Приложение 7).
К преимуществам FeRAМ относится низкое напряжение, необходимое для записи данных . В результате технология в сравнении с флеш-памятью обеспечивает наполовину или на четверть более низкое энергопотребление. Сам процесс переключения в ячейке памяти FeRAМ осуществляется очень быстро: она способна записать бит за один цикл записи продолжительностью 150 нс. Это приблизительно в 67 раз быстрее, чем у флеш-памяти, продолжительность цикла записи которой составляет 10 микросекунд (10000 нс)[21].
Модули памяти FeRAМ для микроконтроллеров производятся, в частности, компаниями Fujitsu и Texas Instruments. В настоящее время стоимость хранения одного бита информации слишком высока , поэтому они до сих пор используются только в устройствах управления подушками безопасности автомобилей , а также в медицинской технике.
Носителем информации в МRАМ являются магнитные моменты, обеспечивающие высокую скорость переключения и способные длительное время сохранять свое состояние и изменять его, в отличие от флеш-памяти, неограниченное количество раз [44, c.39].
Принцип MRAM прост: рядом друг с другом расположены два ферромагнитных слоя. Один из слоев постоянно намагничен в определенном направлении, а у другого этот параметр может изменяться под действием внешнего поля и принимать одинаковое с первым или противоположное ему направление. Если оба слоя намагничены в одном направлении, то проходящий через два элемента ток чтения встретит низкое сопротивление - ячейка примет значение «1». Второй вариант характеризуется высоким сопротивлением, что соответствует значению «0» (Приложение 8).
МRАМ обладает коротким временем отклика – теоретически оно может достигать одной наносекунды. Благодаря этому МRАМ обеспечивает до 1 000 раз более высокую скорость записи, чем флеш-память. Копирование образа DVD размером 8 Гбайт на диск МRАМ заняло бы не 21, а 0,02 с . Но на практике имеется одна проблема: при рабочей частоте свыше 400 МГц магниты оказывают взаимное влияние друг на друга. В рамках исследовательского проекта в Брауншвейгеком физико-техническом институте данная проблема была решена путем объединения нескольких МRАМ-ячеек в один запоминающий элемент. Благодаря этому производительность МRАМ возросла в пять раз.
Как и в случае с другими возможными преемниками технологии флеш-памяти, производство чипов МRАМ уже налажено, однако они находят применение лишь в специальных областях- например, космонавтике. Однако активность таких гигантов, как Toshiba, IВМ и NEC, свидетельствует о том, что магниторезистивная память имеет хорошие шансы быть запущенной в серийное производство в ближайшие годы.
Технология Phase Chaпge Memory (память на основе фазового перехода) в перспективе будет обеспечивать в 100 раз более высокую в сравнении с флеш-памятью пропускную способность и большую плотность записи данных. В то время как основные методы хранения информации основываются на электрических или магнитных эффектах, PRAM работает благодаря физическим изменениям в материале. В ней используется такой эффект, при котором материал фазового перехода, сходный с материалами, применяемыми в перезаписываемых оптических накопителях, может принимать одно из двух состояний - кристальное, характеризующееся низким электрическим сопротивлением, и аморфное, в котором данный показатель повышается [39, c.133].
При записи в ячейку под действием импульсов тока материал принимает различные состояния. Длинный импульс вызывает плавление материала, который при охлаждении переходит в твердое состояние с беспорядочным молекулярным строением, короткий – разогревает его до небольшой температуры, при которой образуется упорядоченная кристаллическая структура (Приложение 9).
Как и в случае с МRАМ, чтение содержимого ячейки осуществляется путем измерения ее сопротивления. Фазовый переход достигается очень быстро: исследователям из компании IBM удалось повысить скорость записи по сравнению с флеш-технологией в 100 раз, а также обеспечить возможность прямого переключения ячейки из одного состояния в другое. Ячейки же флеш-памяти перед повторной записью необходимо вначале очистить.
Samsung, Intel и Hynix уже производят запоминающие элементы с чипами РRАМ для накопителей небольшой емкости (до 64 Мбайт), используемых в мобильных телефонах. В то время как многие современные технологии хранения данных достигли предельных размеров ячеек памяти, ReRAM (резистивная) и Conductive Bridging RАМ (память с проводящим мостом) позволяют создавать еще более миниатюрные элементы - вплоть до величины нескольких ионов. Обе технологии работают по одному принципу: внутри слоя изоляции создаются токопроводящие мостики (Приложение 9), которые затем ликвидируются [4, c.84].
Отличия заключаются в материалах. В случае с ReRAМ изоляционный слой состоит из диэлектрика - материала, электроны которого не могут свободно передвигаться. В исходном состоянии он блокирует напряжения чтения между электродами, и ячейка принимает значение «0».
Для записи «1» контроллер подает на электроды высокое напряжение, которое пробивает диэлектрик и оставляет токопроводящие каналы. В этом состоянии ток чтения способен преодолеть диэлектрик, и ячейка в качестве записанной информации выводит значение «1». Для записи нуля подается обратное напряжение, которое разрушает созданные ранее каналы.
Ячейка памяти СВRАМ имеет схожую структуру – разница лишь в том, что один из двух электродов состоит из электрохимически активного материала, например серебра, а другой - из неактивного вещества, например вольфрама. Электроды отделены друг от друга слоем электролита, выступающим в качестве изолятора (Приложение 10). Таким образом, ток чтения блокируется, в результате чего ячейка принимает значение «0» . Для записи «1» контроллер подает высокое напряжение на электрод из вольфрама [44, c.40].
Благодаря этому между электродами возникает нанотрубка. Нанотрубка снижает сопротивление ячейки, в результате чего та выводит значение «1». Для перевода ячейки памяти СВRАМ в состояние со значением «0» ток течет в противоположном направлении и разрушает нанотрубку. Основными преимуществами ReRAМ и СВRАМ по сравнению с флеш-памятью являются более высокая скорость работы, длительный срок службы и возможность уменьшения площади ячеек до размера наноструктур. Технология ReRAМ достигнет своей рыночной зрелости уже в 2017 году.
3.3 Ограничение действия закона Мура
Закон Мура вскоре прекратит действовать, а вместе с ним завершится целая эра в истории вычислительных машин. Первый транзистор, созданный в 1947 году, едва умещался на ладони. Сейчас размер такого полупроводникового устройства в сотни раз меньше, чем кровяная клетка. Все это время электронная промышленность развивалась по эмпирическому закону, сформулированному в 1965 году Г. Муром. Он предположил, что количество транзисторов в полупроводниковых микросхемах будет удваиваться каждые два года [15].
Мур оказался совершенно прав, и данный закон не утратил актуальности по сей день. За это время сложность чипов возросла в миллион раз: если в первых микропроцессорах содержалось несколько тысяч транзисторов, то в чипах последнего поколения их насчитывается уже несколько миллиардов (Приложение 11).
Г. Мур сформулировал не закон (в физическом смысле), а правило, которое звучало так: «По мере прогресса в микроэлектронике можно будет помещать все больше логических элементов в тело одной микросхемы». Позже он добавил — «по крайней мере, в течение десяти лет» [37, c.122]. Сейчас закон Мура подтверждается тем, что компания Intel каждые два года совершенствует техпроцесс и уменьшает линейные размеры логических элементов микропроцессоров: в 2003 году они составляли 90 нанометров, в 2005-м — 65 нм, 2007-м — 45 нм, 2013-м — 32 нм, 2015-м — 22 нм. Это делается для того, чтобы повысить их производительность и понизить энергопотребление.
С 1965 года, когда был сформулирован закон, прошло уже 48 лет, но тенденция, заявленная Муром, является основой производственных планов корпорации Intel. Конец закону Мура предрекали давно, так как нельзя же до бесконечности уменьшать линейные размеры элементов - уже сегодня они сравнимы с размерами нескольких атомов.
Для того чтобы перенести структуру с маски («чертежа» микросхемы) на пластину с будущими процессорами, ее нужно экспонировать светом. Но при столь малых размерах элементов процесс экспонирования ограничивается дифракцией и интерференцией видимого света, и установка выходит за пределы разрешающей способности. К тому же работоспособность логических элементов тормозится возникающими квантовыми эффектами (баллистический транспорт, туннелирование частиц) и физическими свойствами материалов (например, диэлектрической проницаемостью) [15].
Однако до сих пор Intel удавалось решать все возникающие проблемы. Во-первых, экспонирование происходит не в один, а в несколько этапов, и для них используются разные маски. Во-вторых, благодаря специалистам корпорации Intel, фотонные эффекты давно работают на пользу процессорам. В-третьих, взамен устаревших используются инновационные материалы и технологии. Так, трехмерные транзисторы (слева), применяемые Intel с 2015 года, переключаются почти на половину быстрее планарных (справа) (рисунок 8). Разработчики корпорации Intel в области производственных технологий сегодня видят процесс на пять-шесть лет вперед, и в течение этого периода закон Мура будет действовать.
Рисунок 8 - Трехмерные (слева) и планарные
(справа) транзисторы
Переход на 20-нанометровый технологический процесс приведет к удорожанию чипов. По сути — да, разумеется, более «тонкий» процесс всегда более затратный. Однако, если сравнивать новые поколения процессоров Intel в тех же позициях с их прежними аналогами, то цена остается такой же.
В периоды «технологического перелома» приходится увеличивать площадь пластин, которые потом разрезаются на отдельные чипы: так можно умножить их количество, создаваемое за один проход, и сдержать удорожание микросхем. Поэтому сегодня специалисты Intel работают над переходом к использованию в производстве 450-миллиметровых пластин. Стоимость устройств снижалась столь же стремительными темпами [37, c.123] (рисунок 9).
Рисунок 9 - График Г. Мура, показывающий зависимость
цены транзистора от числа этих элементов в чипе
Но вечно двигаться вперед такими темпами электронная промышленность не сможет. Уже сегодня толщина отдельных элементов транзистора сравнима с толщиной нескольких атомов. На этом уровне начинают действовать иные физические законы, поэтому в ближайшие годы разработчики кремниевых чипов на базе транзисторов столкнутся с серьезными проблемами.
По мнению Г. Самуэли, закон Мура перестает действовать и через 10-15 лет он себя полностью изживет. После того как компании приступят к выпуску микросхем по 20-нанометровому технологическому процессу, начнется существенное удорожание производства микросхем, а при переходе на пятинанометровую технологию индустрию ждут еще большие трудности.
В результате рост производительности и числа транзисторов в чипах прекратится [38, c.57].Сейчас на элементы в кремниевом чипе еще действуют законы классической механики, но через несколько лет эти полупроводниковые устройства уменьшатся настолько, что происходящие в них процессы станут подчиняться законам квантовой механики.
При этом начнет наблюдаться так называемый туннельный эффект: электроны будут неконтролируемо преодолевать слой затвора (изолятора, регулирующего поток электронов в транзисторе). На практике это означает возникновение вычислительных ошибок, превращения «0» в «1». Работа процессора станет невозможной [37, c.124].
Если рост быстродействия полупроводниковых микросхем прекратится, то покупатели будут менять технику только в случае ее поломки, а не морального устаревания. Производство новых моделей компьютеров, смартфонов, планшетов и других гаджетов в таких количествах, как сейчас, полностью утратит смысл. Это приведет к масштабному экономическому кризису, который затронет многие смежные отрасли. Вся сложившаяся за последние десятилетия культура непрерывной модернизации вычислительной техники быстро сойдет на нет. Множество докладов рассказывали о внутренних исследованиях Intel, которые затрагивали потенциально возможные для реального применения технологии, включая дальнейшее уменьшение техпроцесса микросхем. В частности, затрагивалась такая волнующая всех тема, как атака закона Мура 10 нанометрами. Intel гордится покорением 14 нанометров. Это достижение далось с трудом и задержками в 6-9 месяцев в зависимости от класса продукта, но компания всё же смогла добиться превосходящих Samsung и TSMC показателей. Intel считает, что только им удалось добиться настоящих 14 нм: об этом говорят меньшие размеры отдельных элементов и другие характеристики, к примеру, размер ячейки SRAM[22].
Intel предсказывает, что и при переходе на 10 нм будут улучшения, но конкретных сроков начала поставок не называлось. Если ориентироваться на предыдущие планы, то 10 нанометров появятся на прилавках в конце 2016 или начале 2017 года. Дальнейшие уменьшения будут даваться очень тяжело. Intel учится на своих ошибках при работе над 14 нм и надеется избежать тех же проблем при движении к 10 нанометрам[23] (рисунок 10).
Рисунок 10 - Десятинанометровая технология: вызов закону Мура
Вопрос также касался себестоимости процесса. На графике можно увидеть, как происходит удешевление отдельных элементов. Можно заметить, что 14 нанометров показали несколько более крупное падение стоимости, чем это ожидалось. Это было достигнуто за счёт оптимизации процесса литографии и использования масок. И пусть у 10 нанометров шагов применения масок будет ещё больше, задержек, которые мы наблюдали в ситуации с 14, не будет. В Intel поняли, что задержки 14 нм были вызваны возросшим количеством тестов и проверок.
В результате коррекции тестовые мощности техпроцесса 10 нанометров работают в полтора раза быстрее, чем в случае с 14 нм. Пусть и постоянные затраты 10 нанометров будут выше, но стоимость на транзистор снизится с использованием тех же технологий литографии. Intel рассматривает глубокий ультрафиолет, но не хочет использовать его без крайней необходимости из-за более медленного процесса его развития, чем это ожидалось.
Кроме этого, исследовательская группа Intel рассказала о использовании технологий 3D (слой за слоем) и 2.5D (отдельные слои на подложке). Эти решения могут позволить уместить больше транзисторов (рисунок 11): ограничить в некоторых случаях энергопотребление (2.5D) или построить более компактные конструкции (3D)[24].
Рисунок 11 - Гетерогенная интеграция является более
важной частью масштабирования
В частности, Intel рассматривает сценарии, в которых логические цепи разных методов производства укладываются слоями вместо реализации подобного на одном слое. Такое может появиться в мобильных устройствах — смартфонах, планшетах. Самым интересным развитием технологий 14 нанометров может быть SRAM: Intel достигла 84-мегабитного хранилища с самым маленьким в мире размером ячейки — 0,050 мкм[25] (рисунок 12).
Рисунок 12 - Технология FinFET CMOS 14 нм
Это 14,5 мегабит на квадратный миллиметр. По сравнению с 22 нм упало необходимое напряжение: 0,6 В для 1,5 ГГц, 1 В для 3 ГГц. Intel удалось достичь очень экономной передачи данных: 10 гбит/с потребовали лишь 5,9 пикоджоулей на бит. 10 нанометров потребуют нововведений, а переход к семи и вовсе будет возможен только с новыми материалам и процессами (рисунок 13). Но ничего конкретного названо не было, хотя обсуждались III-V полупроводники. Речь идёт о комбинациях элементов третьей группы периодической таблицы (алюминий, галлий, индий) с элементами пятой группы (азот, фосфор, мышьяк, сурьма). Подвижность электронов у них выше, чем у кремния, что позволяет уменьшать размер транзисторов (рисунок 14).
Рисунок 13 - Динамика развития микропроцессоров[26]
В Intel начали смотреть в эту сторону уже несколько лет назад, возможно, уже через несколько лет ядром компьютеров будет чип на арсениде галлия-индия.
Рисунок 14 - Перспективы развития технологии
микропроцессоров[27]
Дальнейшее продвижение выглядит уже совсем футуристично: возможны глубокий ультрафиолет, карбоновые нанотрубки, графен и нанонити.
4 Компьютерные технологии будущего
4.1 Предпосылки революционных изменений компьютерных технологий
С середины прошлого века производители микросхем в погоне за миниатюризацией шаг за шагом спускались к атомным масштабам и на сегодняшний день достигли размеров транзисторов в 22 нанометра. При размерах меньше 10 нанометров наступает теоретический предел, при котором квантовые эффекты делают дальнейшее уменьшение транзистора невозможным. Электроны начинают просачиваться сквозь слой толщиной в несколько атомов.
Рано или поздно полупроводниковые микросхемы, изготавливаемые из кремния, изживут себя. Им на смену придут более совершенные аналоги. Скорее всего, это произойдет не по технологическим, а по экономическим причинам: транзисторы станут настолько маленькими, что вложения в новую технологию производства будут окупаться примерно за три-четыре года. Это притормозит развитие полупроводниковой промышленности и даст шанс новым перспективным разработкам, таким как биологические и оптические компьютеры [26, c.6].
Если кремниевые чипы оперируют отрицательно заряженными элементарными частицами вещества (электронами), то оптические процессоры — частицами света (фотонами). Это наделяет их множеством уникальных свойств — например, способностью обрабатывать информацию в момент ее передачи, низким потреблением энергии, возможностью передачи данных на большие расстояния и высокой производительностью.
Созданный инженерами IBM прототип оптического чипа Holey Optochip способен обрабатывать ежесекундно более триллиона бит данных (это около 500 фильмов, записанных в формате HD), потребляя при этом менее чем 5 Вт мощности.
В процессор IBM встроен массив микролазеров, которые излучают и модулируют свет[28]. Управляя исходящим от них светом, можно обрабатывать информацию, поступающую из блока преобразования электрического сигнала в оптический, а также передавать ее по оптоволоконным каналам в другие процессоры. Массив фотодиодов, также входящий в состав устройства, осуществляет обратное преобразование оптического сигнала в электрический. Поэтому, строго говоря, разработку IBM правильно называть не оптическим, а электронно-оптическим чипом.
Чтобы создать полностью оптический процессор, необходимо разработать подходящий тип памяти (например, голографический) и методы работы с данными, хранящимися в виде образов. Исследования в этом направлении идут, однако до создания коммерческих продуктов еще далеко. Поэтому у оптических устройств множество альтернатив, одна из которых — квантовые компьютеры.
Корпорация Google объявила об открытии лаборатории по разработке искусственного интеллекта на квантовых компьютерах. Для этих целей Google заказала у канадской компании D-Wave квантовый компьютер D-Wave Two, оперирующий 512 кубитами, стоимость которого превышает сумму в 330 млн рублей. В отличие от традиционных компьютеров, действие которых основано на законах классической механики, устройство D-Wave Two работает по законам квантовой механики, поскольку имеет дело с мельчайшими частицами вещества — атомами. Последние выполняют в нем функции ячеек памяти [37, c.124].
Наименьшим элементом для хранения информации в фотонном компьютере является квантовый бит, также известный как кубит. Обычный бит принимает только одно из двух значений (0 или 1), в то время как кубит может находиться в двух состояниях одновременно (состояние суперпозиции в квантовой физике), причем в каждом из них — с определенной долей вероятности. Понять принцип работы фотонного компьютера поможет один простой пример. Если взламывается пароль методом полного перебора на обычном ПК, то придется медленно продвигаться к цели шаг за шагом, проверяя в один момент времени единственную из возможных комбинаций букв и цифр, пока, наконец, не будут проверены все [9, c.64].
Если в пароле девять символов, и у каждого из них 36 возможных значений, то на решение такой задачи уйдут долгие годы. Квантовый компьютер действует иначе: он переберет все возможные решения за одну попытку (при условии работы с достаточным количеством кубитов) и выдаст ответ, который с высокой степенью вероятности окажется правильным. Поэтому, когда мощные квантовые компьютеры подешевеют настолько, что станут повсеместно доступны обычным пользователям, многие математические алгоритмы шифрования совершенно утратят свою актуальность.
Кубиты могут быть связаны друг с другом, что позволяет построить фотонное устройство, оперирующее одновременно с несколькими кубитами. Причем добавление новых кубитов приводит к экспоненциальному росту производительности: если процессор с 20 транзисторами в два раза мощнее процессора с десятью транзисторами, то квантовый компьютер с 20 кубитами в 1024 раза мощнее компьютера с десятью кубитами [9, c.65].
Пока что фотонные компьютеры напоминают ЭВМ шестидесятых годов: они занимают сопоставимое по размерам с комнатой пространство и стоят огромные суммы. Существуют также другие проблемы: устройства данного типа пока плохо справляются с решением задач, требующих выполнения множества последовательных действий. Среди прочего могут возникнуть сложности с переносом на них некоторых необходимых алгоритмов. Поэтому еще долгое время кремниевые и квантовые компьютеры будут существовать параллельно.
Квантовые компьютеры будут использоваться в тех областях человеческой деятельности, где существует потребность в высокой вычислительной мощности, — науке, прогнозировании различных явлений и моделировании. Постепенно они будут эволюционировать: уменьшаться, становиться мощнее и дешевле, а затем будет создан персональный квантовый компьютер.
Полупроводниковые микросхемы также будут развиваться и совершенствоваться. У разработчиков еще остались решения, которые помогут уменьшить транзистор и повысить скорость его работы, в том числе альтернативные материалы, такие как, например, углеродные нанотрубки.
Недавно группе ученых из Стэндфордского университета удалось изготовить из них простейший микрочип, объединив в единую цепь 178 транзисторов. Однако для выпуска более сложных элементов в промышленных масштабах необходимо разработать совершенно иной, чем в лабораторных условиях, способ производства, а на это могут уйти долгие годы.
Таким образом, из вышеизложенного можно сделать вывод, что современные компьютеры работают все медленнее, не справляясь с задачами, которые ставит перед ними человек. Ученые уже разрабатывают вероятностные процессоры, молекулярные, биологические, оптические и квантовые компьютеры, которые придут устаревшим машинам на смену.
Тема квантового компьютера стала достаточно популярной и актуальной в последнее время для дискуссий в сфере информационных технологий, а также в кругах физиков. Квантовый компьютер - это вычислительное устройство, которое использует явления квантовой суперпозиции и квантовой запутанности для передачи и обработки данных. Квантовая запутанность - квантово- механическое явление, при котором квантовые состояния двух или большего числа объектов оказываются взаимозависимыми.
Такая взаимозависимость сохраняется, даже если эти объекты разнесены в пространстве за пределы любых известных взаимодействий, что находится в логическом противоречии с принципом локальности. Например, можно получить пару фотонов, находящихся в запутанном состоянии, и тогда, если при измерении спина первой частицы её спиральность оказывается положительной, то спиральность второй всегда оказывается отрицательной, и наоборот [72].
В квантовом компьютере применяется кубит от английского quantum bit (qubit). Квантовая система с двумя различными состояниями |0>, | 1>, способна нести 1 бит информации. Это наименьший элемент для хранения информации. В качестве кубита могут выступать фотоны, атомы, ионы, ядра атомов. Спин - собственный момент импульса элементарных частиц, имеющий квантовую природу и не связанный с перемещением частицы как целого. Спином называют собственный момент импульса атома ядра, иона или фотона, который определяется как векторная сумма спинов элементарных частиц, образующих систему орбитальных соединений, которые движутся внутри системы.
Спин измеряется в единицах h и равен hJ, где J - характерное целого для каждой частицы, в том числе нулевое или полуцелое положительное число, так называемое спиновое квантовое число. Все элементарные частицы делятся на два класса: бозоны - частицы с целым спином (фотон, глюон, мезоны, бозон Хиггса) и фермионы - частицы с полуцелым спином (электрон, протон, нейтрон, нейтрино) [61].
Главным условием здесь является наличие двух квантовых состояний. Изменение состояния определенного бита в обычном компьютере не ведет к изменению других, а вот в квантовом компьютере изменение одной частицы введет к изменению состояния других частиц. Необходимо, чтобы они сохраняли состояние квантовой когерентности. Одна случайная молекула воздуха или другой малейший шум в системе способны выбивать кубиты из когерентной сцепленности.
Поэтому все необходимо тщательно экранировать буквально от всего. Бит классического компьютера может иметь одно из значений 0 или 1, а квантовый компьютер имеет базисные значения 0 и 1, и находится во всех этих состояниях одновременно, также имеет и свою комплексную амплитуду, и находиться в состоянии квантовой суперпозиции. В квантовой суперпозиции 0 и 1 имеет состояние А * |0} + B * |1} , где и A и B- комплексные числа, из которых получаем |A|2 + |В|2 = 1. Однако, компания IBM настаивает на том, что правильно записывать 0 + 1, так как данные значения в квантовом компьютере имеют фазовое взаимодействие друг с другом, что приводит к выходу в суперпозицию. Именно это свойство позволяет квантовому компьютеру выбрать правильное решение среди миллионов вероятных комбинаций гораздо быстрее обычного компьютера. И его потенциал может раскрыться в полной мере в высокоскоростной обработке больших объемов информации. Для примера в таблице 2 приведены значения в левом столбце количество кубит, а в правом значение бит классической информации
Таблица 2 - Количество бит в кубитах
Кубит | Бит |
1 | 1 |
2 | 2 |
3 | 4 |
4 | 8 |
5 | 16 |
б | 32 |
7 | 64 |
8 | 128 |
9 | 256 |
10 | 512 |
Если продолжить таблицу 1, то можно увидеть что 31 кубит будет равняться 1073741824 байт или же 1 гигабиту. О большом потенциале вычислений говорил Фейнман в знаменитой лекции «Внизу полным-полно места», которую он прочитал в 1959 году на встрече Американского физического общества, состоявшейся в Калифорнийском Институте технологии в Пасадене. В своей лекции Фейнман предположил новые технологии, которые будут развиваться от способности человека манипулировать материей[29].
В 1960-ых годах американский физик Р. Ландауэр, работавший в корпорации IBM, пытался обратить внимание научного мира на то, что вычисления - это всегда некоторый физический процесс, а значит, невозможно понять пределы наших вычислительных возможностей, не уточнив, какой физической реализации они соответствуют. А в 1980 году Юрий Манин описал теорию о квантовом компьютере, в 1981 году Ричард Фейнман предложил первую модель квантового компьютера [40, c.4].
В этом же году Пол Бениофф описал теоретические основы построения квантового компьютера, им было предложено использовать не обычные алгоритмы, а квантовые алгоритмы, использующие квантовомеханические эффекты. Стивен Визнер в 1983 году опубликовал общую концепция квантового компьютера, которую пытался опубликовать на протяжении 10 лет.
В 1985 году Дэвид Дойч предложил конкретную математическую модель квантового компьютера. Все вышеперечисленные события определили направление развития квантового компьютера и привели к возникновению споров на тему квантовых алгоритмов и квантовых операций: по причине невозможности физической реализации квантового компьютера, и в виду недостаточной развитости направления транзисторных компьютеров. Поэтому, физическое построение квантового компьютера было отнесено к разряду научной фантастики.
Ситуация меняется в 1994 г. Американский математик Питер Шор предложил для квантового компьютера алгоритм факторизации, а в 1996 году его напарник по работе Л. Гровер предложил квантовый алгоритм быстрого поиска в неупорядоченной базе данных. Уже в начале 2000-х годов во многих научных лабораториях были созданы однокубитные квантовые процессоры, управляемые двухуровневыми системами, в которых можно было предполагать возможность масштабирования на много кубитов. Также к данному временному отрезку относится появление огромного количества публикаций, связанных с квантовым компьютером и квантовыми алгоритмами.
В 2001 году компания IBM создала 7-кубитный квантовый компьютер, на котором был смоделирован алгоритм Питера Шора и были найдены сомножители числа 15 (числа 3 и 5). К 2002 году количество публикаций в этом направлении возрастает, но этот процесс сопровождается тем, что авторы, ранее занимавшиеся данной тематикой, перестают ею заниматься из-за отсутствия ресурсов и сложности построения квантовых элементов.
В 2005 году группой Ю. Пашкина при помощи японских специалистов был построен двухкубитный квантовый процессор на сверхпроводящих элементах. В 2007 году компания D-Wave создает 16-кубитный квантовый процессор, по словам компании, являющийся первым, который может запускать коммерчески - значимые приложения. В 2008 году компания D-Wave выпускает 28 - кубитный квантовый компьютер DWave Orion, который уже может распознавать изображения достопримечательностей [40, c.6].
В ноябре 2009 года физикам из Национального института стандартов и технологий в США впервые удалось собрать программируемый квантовый компьютер, состоящий из двух кубит, а на начало 2010-х годов приходится построение ограниченных его вариантов, самые большие сконструированные квантовые регистры имеют немногим более десятка связанных кубит.
В 2011 году компанией D-Wave публикуется научная статья, основанная на теории квантовой запутанности и ее применении в построении квантового компьютера D-Wave Orion. В феврале 2012 года компания IBM сообщила о достижении значительного прогресса в физической реализации квантовых вычислений с использованием сверхпроводящих кубитов, которые, по мнению компании, позволят начать работы по созданию квантового компьютера.
В апреле 2012 года группе исследователей из Южно-Калифорнийского университета, Делфтского Технологического университета, университета штата Айова и Калифорнийского университета в Санта-Барбаре удалось построить двухкубитный квантовый компьютер на кристалле алмаза с примесями. В начале 2013 года компанией D-Wave создается квантовый компьютер D-Wave Х, имеющий 512 кубит, который сначала был продан компании Lockheed Martin, затем компании NASA. В марте этого же года было продано несколько квантовых компьютеров D-Wave X компании Google, с целью улучшения персонализированного поиска, точности предсказания пробок на основе данных GPS, распознавания речи, машинного перевода с других языков, работы с облачными хранилищами данных.
В этом же году выходит научная публикация, предметом которой выступает схема коррекций ошибок при взаимодействии кубитов, разработанная командой в Санта-Барбаре и компанией IBM. В 2014 году компания Google создает свою лабораторию, к работе в которой привлекает специалистов из Санта-Барбары и ставит перед ними цель, заключающуюся в нахождении подхода к построению квантового компьютера.
Компания Google выпускает язык программирования Quipper и техническую документацию к нему. В 2015 компания D-Wave выпускает квантовый компьютер D-Wave X2, который в дальнейшем покупает компания Google. Затем компания Google выпускает научную публикацию о работе на квантовом компьютере D-Wave X2. В декабре 2015 компания IBM выпускает научную публикацию о двойной коррекции ошибок и показывает новое построение квантового процессора, а также компания Майкрософт выпускает 27-кубитный симулятор квантового компьютера с использованием языка программирования F# и возможностью запуска симулятора в операционной системе Windows [40, c.7].
В заключение можно сделать выводы, что данное направление медленно, но развивается и по прогнозу исследователей из компании Cisco Systems, полноценный квантовый компьютер должен появиться к середине 2020 года. Квантовый компьютер стоимостью в $1000 может быть таким же мощным, как человеческий мозг. В IBM говорят, что ее специалисты смогут создать квантовый компьютер через 10-15 лет. Внешне такие системы будут напоминать традиционные серверные станции. Но для их полноценной работы, скорее всего, придется охлаждать их модули на сотни градусов по Цельсию.
29 января 1990 года компания Bell Labs представила первый в мире оптический компьютер. Экспериментальная модель занималась арифметическими и логическими вычислениями, причём делала это быстрее полупроводниковых компьютеров тех лет. В основе оптических компьютеров лежит идея использования фотонов (вместо электронов) как носителей информации. Воплотить задумку на практике получилось только после изобретения подходящих квантовых генераторов — лазеров[30].
Серийные компьютеры в 1990-е годы поголовно были полупроводниковыми, но у их оптических конкурентов хватало преимуществ даже на раннем этапе развития. Во-первых, «накладные расходы» в виде скорости передачи данных у таких моделей почти отсутствовали (информация в процессоре за один «такт» перемещалась со скоростью света, традиционные электромагнитные «глушилки» не выводили компьютеры из строя), во-вторых, компьютеры были способны передать в один световой пучок огромный массив информации (т.е. даже сложные операции выполнялись с минимальной инерцией, «размазанной» скоростью передачи данных в чипе).
Принцип работы оптических чипов примерно таков: луч лазера проходит сквозь голографическую решётку, после чего в диодах возникал ток, напряжение в решётке падало, после чего свет с большей интенсивности проходил уже через вторую структуру. За счет обратной связи в результате таких операций и происходили вычисления. В первом оптическом компьютере излучателей было 64 лазерных излучателя, а габариты самого компьютера укладывались в 1 м².
Детище инженеров Bell Labs так и осталось прототипом, потому что оптический компьютер проигрывал в универсальности своим полупроводниковым собратьям и был слишком дорог для постановки на конвейер. Впрочем, его современный аналог Lenslet EnLight256 уже выпускается серийно и очень востребован в оборонной промышленности (где недопустимы задержки в передаче информации) и кодировании HD-видеозаписей с масштабных систем видеонаблюдения. Для создания цифровой машины принципиально уметь строить основные логические элементы И, ИЛИ, НЕ. Ниже рассмотрены основные принципы, предлагаемые сегодня для построения таких элементов, управляемых светом[31]. Волноводный модулятор (рисунок 15) представляет собой интерференционный прибор, осуществляющий амплитудную модуляцию входного оптического сигнала, представляющего собой линейно поляризованное световое излучение лазера. Входной волновод модулятора разветвляется на два параллельных канала, которые затем снова сливаются, образуя выходной волновод.
Рисунок 15 - Волноводный модулятор
Волновод изготавливается из материала, обладающего электрооптическим эффектом. Обе ветви волновода симметричны, поэтому входной световой сигнал на разветвлении делится на две равные по амплитуде волны, которые далее распространяются по параллельным каналам с относительным сдвигом фаз. Разность фаз этих волн определяется электрическим напряжением, приложенным к управляющим электродам.
Логическая «1» отождествляется со значением напряжения U0, а двоичный «0»- с нулевым потенциалом. Таким образом, если напряжение U0 приложено к четному числу управляющих электродов, то волны, сходящиеся в выходном разветвлении усиливают друг друга, образуя выходной оптический сигнал с амплитудой, практически равной амплитуде входного сигнала, который принимается за единичный сигнал. В противном случае волны практически полностью гасят друг друга, образуя нулевой выходной сигнал.
Условные обозначения волноводных логических устройств представлены на рисунке 16.
Рисунок 16 - Условные обозначения волноводных
логических устройств
Трансфазор представляет собой оптический аналог электронного транзистора и является оптически бистабильным прибором, способным переключаться в одно из двух четко различимых состояний за время, измеряемое пикосекундами. Он может иметь такие же малые раэмеры, как и электронный транзистор.
Для поддержания бистабильного состояния в трансфазоре требуется мощность порядка 10 мВт и энергия переключения порядка 10 фемто Дж. На основе трансфазора реализуется функционально полная система логических элементов, из которых можно строить любые логические схемы и функциональные узлы вычислительных машин.
Для образования основных логических элементов И, ИЛИ и НЕ в оптических компьютерах можно использовать бистабильные оптические устройства. Такое устройство представляет собой резонатор Фабри-Перо, заполненный нелинейным веществом (например антимонид индия - InSb). Показатель преломления данного вещества зависит от интенсивности падающего пучка, поэтому на выходе можно получить два стабильных состояния, одно из которых условно принимается за «0», а другое за «1».
Один и тот же трансфазор (оптический транзистор) может служить как элементом И, так и элементом ИЛИ, в зависимости от подведённых к нему пучков. Если два падающих пучка подобраны так, что ни один из них сам по себе не способен переключить трансфазор, а оба вместе обладают достаточной интенсивностью для его переключения, то образуется оптический элемент И.
Если же падающие пучки подобраны так, что любой из них способен переключить трансфазор, образуется оптический элемент ИЛИ. Элемент НЕ можно создать, используя в качестве выходного сигнала отражённый пучок. Так как он является инверсией прошедшего пучка, то повышение интенсивности падающего пучка приводит к снижению интенсивности на выходе и наоборот[32] (рисунок 17).
Рисунок 17 - Оптический транзистор (трансфазор)
В качестве бистабильного оптического элемента применяется резонатор Фабри-Перо, заполненный нелинейной средой, показатель преломления которой n зависит от интенсивности I по закону: .
Прозрачность резонатора T зависит от фазового набега между зеркалами :
В резонаторе, заполненном нелинейной средой, полный фазовый набег зависит от интенсивности:
где - константа,
. Cхема совместного решения уравнений (1) и (2) представлена на рисунке 18.
Рисунок 18 - Cхема совместного решения уравнений (1) и (2)
Пересечение прямой с наклоном с кривой пропускания резонатора дает положение рабочей точки - результат совместного решения (1) и (2). Прослеживая за изменением положения рабочей точки при изменении входной мощности Iвх, можно построить зависимость
, приведённую на рисунке 19.
Рисунок 19 - Зависимость
Среда, заполняющая резонатор, и имеющая кубическую нелинейность, характеризуется двумя важными параметрами: величиной нелинейного коэффициента n2 и временем релаксации нелинейного отклика Tнл (инерционностью). На рисунке 20 систематизированы экспериментальные данные по различным нелинейным материалам:
Рисунок 20 - Данные по различным нелинейным материалам
Из рисунка видно, что вещества обладающие сильной нелинейностью, имеют достаточно большое время переключения, поэтому выбирают вещества с наиболее оптимальными значениями n2 и Tнл (обведены кружками).
Схематически интерферометр Фари-Перо изображён на рисунке 21.
Рисунок 21 - Интерферометр Фари-Перо
Команде исследователей из университета Colorado Boulder в сотрудничестве с Калифорнийским Университетом в Беркли и Массачусетским Технологическим Институтом (MIT) удалось достичь существенного прорыва в области оптоэлектроники. Ими совместно был создан рабочий образец чипа, сочетающего в себе типичные на сегодня электронные и оптические технологии на одном кристалле. Сердцем процессора стала пара ядер RISC-V. Рядом расположился 1 Мбайт памяти SRAM. Но, в отличие от обычных конструкций, процессорные ядра обращаются к этой памяти не по электрическому, а по оптическому интерфейсу. О таких соединениях много говорилось ранее, но лишь сейчас их удалось осуществить «в кремнии»[33].
Возможна также связь с компонентами вне чипа без дополнительных оптических устройств. На рисунке 22 изображена «оптическая точка доступа» пулевидной формы.
Рисунок 22 - Оптическая точка доступа
Несмотря на свою необычность, опытный процессор создан с использованием 45-нанометровой технологии CMOS SOI. Учёные заявляют, что достигнута плотность передачи данных 300 Гбит/с на квадратный миллиметр, притом, что размеры самого кристалла составляют 3 × 6 миллиметров. Этот показатель уже от 10 до 50 раз превышает возможности современных, полностью электронных чипов. Любопытно, что для увеличения плотности и скорости передачи данных можно использовать разные «цвета», то есть длины волн в одном канале-волокне. Такая возможность была предсказана учёными и писателями-фантастами очень давно.
Пока опытный экземпляр нельзя назвать быстрым. Сам процессор, по заявлению исследователей, работает на 1/80 скорости совокупной передачи данных, достигаемых оптической частью, то есть примерно на частоте 31 МГц. Каждый из оптических каналов имеет пропускную способность 2,5 Гбит/с — это вполне современный показатель.
Сам факт создания рабочего электронно-оптического процессора говорит о том, что современные технологии уже достигли уровня развития, когда создание таких гибридов становится физически возможным. Пока в прототипе интегрировано всего 850 оптических компонентов ввода-вывода, но команда исследователей, разумеется, не собирается останавливаться на достигнутом.
Как заявил М. Уэйд, один из ведущих разработчиков проекта, «мы поняли, как использовать одни и те же материалы и техпроцессы, чтобы совмещать в одном чипе электронные и оптические устройства». Он отметил, что это сулит в будущем создание электронно-оптических систем, способных решить проблему «бутылочного горлышка» в передаче данных в вычислительных системах. Проведённые исследования привели к созданих двух компаний-стартапов, одна из которых, Ayar Labs, будет специализироваться на разработке экономичной передачи больших объёмов данных. Описанный в данной заметке научный проект был проведён при поддержке DARPA.
Ученым из лаборатории нанофотоники и метаматериалов Университета ИТМО впервые удалось экспериментально продемонстрировать возможность создания сверхбыстрого оптического транзистора всего лишь из одной кремниевой наночастицы. Результаты работы в дальнейшем могут быть использованы при разработке оптических компьютеров, где транзисторы должны обладать способностью сверхбыстрого переключения и повышенной компактностью.
Производительность современных компьютеров, в которых носителем сигнала выступают электроны, во многом ограничена временем переключения транзистора – порядка 0,1-1 наносекунды (10−9 секунды). Предполагается, что в оптических компьютерах сигнал, переносимый фотонами, сможет вместить в себя куда больше информации, чем стандартный электрический сигнал. По этой причине развитие оптических компьютеров невозможно без создания сверхбыстрого оптического транзистора, то есть миниатюрного устройства, которое будет успевать управлять прохождением полезного светового сигнала за счет внешнего управляющего сигнала в пределах нескольких пикосекунд (10−12 секунды).
Группа российских ученых из Университета ИТМО, Физического института им. П.Н. Лебедева РАН и Академического университета в Санкт-Петербурге предложила концептуально новый подход к вопросу разработки такого транзистора, сделав его прототип всего из одной кремниевой наночастицы (рисунок 23).
Рисунок 23 - Схематическое изображение переключения режимов рассеяния в зависимости от интенсивности лазерного импульса падающего на наночастицу кремния. (а) слабый и (b) интенсивный фемтосекундный лазерный импульс
Ученые обнаружили, что могут радикально менять свойства кремниевых наночастиц, облучая их интенсивными сверхкороткими импульсами лазера. Под воздействием излучения внутри частицы формируется плотная и быстро релаксирующая электронно-дырочная плазма, наличие которой сильно меняет диэлектрическую проницаемость кремния на несколько пикосекунд. Это резкое изменение в структуре наночастицы, вызываемое лазерным импульсом, приводит к возможности управлять направленностью рассеянного частицей падающего света. Так, в зависимости от мощности управляющего лазерного импульса наночастица может перестать рассевать свет назад и начать рассеивать его вперед, выполняя таким образом функцию оптического переключателя.
«До сих пор ученые в основном пытались создать оптические нанотранзисторы, управляя поглощением наночастиц, что, в сущности, тоже логично – в режиме высокого поглощения частица почти не пропускает световой сигнал, а в режиме низкого поглощения пропускает. Однако этот подход пока не оправдал ожиданий,– рассказывает первый автор статьи и старший научный сотрудник лаборатории Сергей Макаров. – Наша концепция отличается тем, что мы предлагаем управлять не поглощением, а диаграммой направленности частицы. Иными словами, в обычном режиме частица, например, рассеивает почти весь свет назад, но как только частица получает более интенсивный управляющий сигнал, она начинает перестраиваться и рассеивать вперед»[34].
Выбор кремния в качестве материала для транзистора не был случайным. Реализация оптического транзистора требует использования недорогих материалов, подходящих для массового производства и способных за несколько пикосекунд (в режиме плотной электронно-дырочной плазмы) менять свои оптические свойства и при этом почти не нагреваться. «Время переключения между режимами работы нашей наночастицы составляет всего несколько пикосекунд, а приводим в рабочий режим мы ее за десятки фемтосекунд (10−15 секунды). Сейчас у нас на руках уже есть предварительные экспериментальные данные, свидетельствующие о том, что частица сможет успешно играть роль оптического транзистора. Теперь в наших планах провести эксперименты, где наряду с управляющим лазерным лучом будет и полезный сигнальный луч», – подводит итог соавтор статьи, заведующий лабораторией нанофотоники и метаматериалов Университета ИТМО П. Белов[35].
Стандартный полупроводниковый транзистор является одним из основных строительных блоков современных электронных устройств. Именно разработка транзистора в 1947 году ознаменовала начало цифровой революции, заменив громоздкие и малоэффективные вакуумные трубки в телевизорах, радио и других устройствах. Изобретатели первого полупроводникового транзистора Уильям Брэдфорд Шокли, Джон Бардин и Уолтер Браттейн были вознаграждены за свою работу Нобелевской премией 1956 года. Ценность транзисторов обуславливается их способностью усиливать и переключать сигналы в электронных схемах, а также формировать логические вентили. Сверхбыстрый наноразмерный оптический транзистор способен дать аналогичный толчок развитию устройств на основе оптической передачи сигнала.
Таким образом, можно сделать вывод, что в недалеком будущем, у нас дома могут появиться компактные и энергоэффективные оптические компьютеры, способные выполнять квадриллионы операций в секунду. Фотоника уже начала революцию в мире компьютеров. Оптоволоконные линии передачи данных несут информацию с невероятной скоростью и не страдают от электромагнитных помех, как обычные классические кабели. Оптический компьютер - это устройство обработки информации с использованием света. Важно, что частота световой волны на несколько порядков выше частоты электрических сигналов и волн, используемых в кремниевой технологии.
Так, если электрическая волна в радиотехнике совершает приблизительно 100 тысяч колебаний в секунду, то световая волна имеет частоту, которая в 10-100 миллионов раз превосходит это значение. Потому с ее помощью в фиксированный интервал времени можно передавать большее число сигналов, а значит и информации. Кроме того, поскольку длина световой волны ничтожно мала, то имеется возможность обработки информации с необычайно высокой скоростью.
Уже сейчас можно представить концепт такого полностью оптического компьютера. Существующие технологии позволяют создавать однофотонные транзисторы, которые в отличие от существующих кремниевых, потребляют значительно меньше энергии и более высокочувствительны. Также преимуществами такой технологии являются: параллельная передача информации за один световой пучок; возможность использования совершенно разных сред передачи, хранения и обработки информации; обработка информации возможна во время ее передачи через оптическую систему, которая реализует вычислительную среду; отдельно хочется отметить, что оптическая система не позволяет перехватывать информацию через окружающую среду.
В свою очередь эти аспекты позволят разрешить множество проблем в сферах информационной безопасности и криптографии. Что ещё важно, для учёных сложнее всего было создать фотонное запоминающее устройство, ведь сохранить информацию о свете как о заряде в мемристоре казалось невозможным, но и эта задача решена, благодаря использованию фотонных кристаллов и квантовых ям. Кроме того, существуют технологии, позволяющие создавать объёмные оптические структуры, что приведёт к ещё большей миниатюризации конечного продукта. Например, лазерная технология изменения коэффициента преломления внутрикристалла, не повреждающая его внешние слои, позволит создавать очень малые, сложные оптические структуры конвейерно, что приведёт к массовому переходу к оптическим системам.
Отметим также важность возможности питания конечной системы по оптоволокну без металлических составляющих, что ещё усилит защищённость от электромагнитных помех. Осуществить это позволит технология Power Over Fiber. Теперь представим полностью оптический компьютер: не только с оптическими шинами данных, но и с оперативной и физической оптопамятью; созданный с помощью объёмной технологии; энергоэкономный; настолько скоростной, что многие ещё и не в силах вообразить; с возможностью квантовых вычислений; вводом данных как при живом общении; с возможностью полной персонализации и высокой защищённостью личных данных.
Создание полностью оптического квантового компьютера – очень амбициозная цель, видимая сегодня, наравне с ожиданиями, как, вероятно, мечтали о полностью программируемом классическом компьютере век назад. Можно надеяться, что по мере того, как мы будем подходить ближе к этой цели, мы привыкнем контролировать контринтуитивные свойства квантовой механики, заодно открывая новые материалы, инструменты и методы, которые нам в этом помогут. Ясно, что потребуется большая дополнительная работа, прежде чем мы поймем фотонные квантовые технологии достаточно, чтобы полностью масштабировать оптический квантовый компьютер, и тогда мы приручим квантовый мир и окончательно вступим в новую технологическую реальность.
Человечество получило персональные компьютеры в свое распоряжение довольно давно, но в будущем они станут заниматься совсем не тем, ради чего создавались. Уже сегодня с помощью ПК мы связываемся друг с другом по электронной почте, в социальных сетях, посредством интернет-телефонии. Люди создали цифровую вселенную, и доступ к ней позволяет возвысить человека над его социальным происхождением и регионом проживания. Совершенно очевидно, что от этого цивилизация уже не откажется.
Длительное время основной тенденцией развития интегральных микросхем - центральных и графических процессоров - оставалось увеличение их скоростных показателей при однопоточном режиме работы. В течение более чем двадцати лет такой подход позволял увеличивать производительность микропроцессоров в среднем на 50% ежегодно. Однако такое развитие микросхем прекратилось в 2002 году, когда на смену одноядерным и «однопоточным» решениям пришли многоядерные процессоры для одновременной обработки двух и более потоков команд и данных.
Смена курса позволила увеличивать производительность процессоров уже на 70% каждый год, и в ближайшее время ситуация вряд ли существенно изменится. В связи с этим, большой интерес представляет будущее интегральных микросхем, в частности, графических процессоров компании. Развитие тенденции увеличения количества вычислительных блоков продолжится еще в течение нескольких лет, что приведет к появлению к 2016 году графического процессора, оснащенного несколькими тысячами ядер.
К этому сроку будет разработан процессор с пятью тысячами вычислительных блоков, что позволит добиться производительности в 20 терафлопс. Для сравнения, большинство суперкомпьютеров, входящих сегодня в список пятисот самых мощных вычислительных систем в мире, обладают пиковой производительностью в несколько десятков терафлопс. Другими словами, один лишь графический процессор для настольных компьютеров через несколько лет сравняется с производительностью целого вычислительного комплекса. Инженеры работают над подготовкой 22-нм техпроцесса, освоение 11-нм не за горами. Одной из основных задач в данном случае станет разработка технологии изготовления столь сложных интегральных микросхем. Согласно прогнозам, к 2016 году графические процессоры будут изготовляться по 11-нм техпроцессу, что позволит размещать на небольшом полупроводниковом кристалле миллиарды транзисторов. IBM уже экспериментирует с оптическими межсоединениями нескольких ядер на кристалле. Но нельзя забывать, что только лишь миниатюризацией микросхем не обойтись. Не менее важно удержать выделяемую графическим процессором мощность в разумных пределах - вряд ли TDP процессоров должен быть значительно выше того уровня, на котором остановились современные микрочипы.
Наибольшей проблемой являются проводящие компоненты, играющие значительную роль в тепловыделении микросхемы. Общеупотребимые сегодня металлические проводники должны уступить место более совершенным вариантам. В частности, переход на технологию оптических межсоединений. Можно вспомнить и последние открытия, касающиеся уникальных свойств графеновых проводников, которые оказываются в тысячи раз лучше медных.
Однако серьезных подвижек, говорящих о возможности скорой коммерциализации новейших технологий, нет - разработки пока находятся на стадии лабораторных проектов с неясным сроком выхода на мировой рынок. Ясно одно - интегральные микросхемы в ближайшем будущем станут гораздо миниатюрнее, производительнее своих современных аналогов, а за счет каких открытий удастся удержать их энергопотребление, инженерам еще предстоит выяснить. Таким образом, на сегодняшний день альтернатив традиционной кремниевой электронике не предвидится. Во всяком случае, таких, которые можно готовить к индустриальному внедрению. Все они по большей части являются концептуальными или гипотетическими, и очень далеки от практических возможностей.
В то же время, огромный интерес представляет вопрос: ожидается ли появление в обозримом будущем принципиально новых компьютеров, например, квантовых. В дальнейшем, вероятно, изменится материальная часть процессоров ввиду того, что технологический процесс достигнет физических пределов производства. Возможно, это будут: 1) оптические компьютеры, в которых вместо электрических сигналов обработке подвергаются потоки света (фотоны, а не электроны); 2) квантовые компьютеры, работа которых всецело базируется на квантовых эффектах. В настоящее время ведутся работы над созданием рабочих версий квантовых процессоров; 3) молекулярные компьютеры — вычислительные системы, использующие вычислительные возможности молекул. Молекулярными компьютерами используется идея вычислительных возможностей расположения атомов в пространстве.
В недалеком будущем все новейшие технологии, применяемые сегодня в довольно узких областях или разработанные пока только на теоретическом уровне, приобретут повсеместное распространение и неизбежно станут частью нашей жизни. Итак, на наш взгляд, в ближайшие пять-десять лет вряд не изменятся физические основы построения ЭВМ, например, переход на другую элементную базу. Самыми распространенными компьютерами станут карманные персональные компьютеры. Через пять-десять лет это будут фактически полнофункциональные компьютеры, имеющие все функции современных ЭВМ, и даже больше. Их функций будет вполне достаточно для решения большинства задач, а настольные компьютеры будут выполнять функции сервера для карманных компьютеров и бытовых устройств со встроенным микропроцессором, а также обеспечивая связь с Интернет.
Скорее всего, они даже не будут иметь монитора. Интернет станет глобальной средой взаимодействия вычислительных устройств. Благодаря ему по поручению своих владельцев одни компьютеры начнут управлять другими, от холодильников и кофеварок до видеокамер на уличных перекрестках и искусственных спутников Земли. Вычислениями займутся устройства, которые раньше не были для этого предназначены.
Список использованных источников
- 15 лет истории видеокарт [Электронный ресурс]. – Режим доступа: http://3dtutorials.ru/novosti/895-15-let-istorii.html.- Загл. с экрана.
- NVIDIA 3D Vision 2. Новая версия популярной 3D-технологии // CHIP.- 2016.- №2.- С.58-60.
- Sandy Bridge: новое поколение Core i // Компьютер.- 2015.- № 10.- С.11-16.
- SSD: рекорды скорости // CHIP.- 2015.- № 1.- С.80-84.
- What is CUDA? [Электронный ресурс]. – Режим доступа: http://www.nvidia.com/object/what_is_cuda_new.html.- Загл. с экрана.
- 29 января в истории [Электронный ресурс]. – Режим доступа: http://www.ferra.ru/ru/techlife/news/2016/01/29/day-in-tech-history-january-29/#.WDH7KrKLSzc.- Загл. с экрана.
- Больше цветов с квантовыми точками. Дисплеи QLED: передовые технологии приходят на рынок // CHIP.- 2014.- № 6.- С.116-118.
- Бочкарёва Ю.Г. Информационные механизмы общественной безопасности// XXI век: итоги прошлого и проблемы настоящего.- 2013.- № 7 (11).- С. 293–298.
- Васильчук О.И. Средства компенсации угроз и аудита безопасности корпоративной информационной системы // Вестник ПГУС. Серия: Экономика.- 2013.- № 4 (30).- С. 127–131
- Вишневский В.М. Теоретические основы проектирования компьютерных сетей. - М.: Техносфера, 2013.- 299 с.
- Восьмиядерный бульдозер. Новое поколение процессоров от AMD// CHIP.- 2016.- № 1.- С.60-62.
- Все o SSD // Компьютер Билд.- 2016.- № 12.- С.34-38.
- Глазер В. Световодная техника.- М.: Энегроатомиздат, 2016.- 292 с.
- Голицина О.Л. Информационные технологии.- М.: Инфра-М, 2013.- 607 с.
- Гохберг Г.С., Зафиевский А.В., Короткин А.А. Информационные технологии.- М.: Академия, 2013.- 210 с.
- Графен – материал будущего // CHIP.- 2015.- № 8.- С.24-28.
- Графические процессоры возьмут 20 ТФлопс к 2016 году [Электронный ресурс].– Режим доступа: www.3dnews.ru/news/graficheskie_protsessori.- Загл. с экрана.
- Графические процессоры для высокопроизводительных вычислений [Электронный ресурс]. – Режим доступа: http://gpu.parallel.ru.- Загл. с экрана.
- Графический процессор [Электронный ресурс]. – Режим доступа: http://www.megabook.ru/Article.asp?AID=607324.- Загл. с экрана.
- Дальнейшее развитие микропроцессоров может потребовать отказа от кремния [Электронный ресурс]. – Режим доступа: http://www.pvsm.ru/e-lektronika/84619.- Загл. с экрана.
- Жесткие диски и твердотельный накопители // Компьютер Билд.- 2012.- № 5.- С.34-38.
- Завиваев Н.С., Шамин Е.А. Определение оценки конкурентоспособности в сфере инфокоммуникационных услуг// Вестник НГИЭИ.- 2013.- № 3 (22).- С. 41–51.
- Закон Мура прекратит действовать к 2020 году [Электронный ресурс]. – Режим доступа: http://www.ixbt.com/news/hard/index.shtml?17/13/68.- Загл. с экрана.
- Зачем процессорам много ядер и кэша // Компьютер.- 2015.- № 10.- С. 6-11.
- Зубренкова О.А., Шигорина Н.А. Выбор автоматизированной информационной системы - основа формирования производственно-opганизационной структуры предприятия // Вестник НГИЭИ.- 2014.- № 7 (38).- С. 97–103.
- Ильницкий С.В. Работа сетевого сервера при самоподобной нагрузке.- URL: http://314159.ru/ilnickis/ilnickis1.pdf.- Загл. с экрана.
- Истомина Т.В., Дунин В.О., Егоров В.А. Проектирование и разработка интеллектуальной информационной системы поддержки медицинских учреждений // XXI век: итоги прошлого и проблемы настоящего.- 2014. -№ 1 (17).- С. 184–190.
- История появления графических процессоров [Электронный ресурс]. – Режим доступа: http://cgm.computergraphics.ru/issues/issue18/gpuhistory.- Загл. с экрана.
- Как все начиналось [Электронный ресурс]. – Режим доступа: http://www.stainlesssteelstudios.com/58.html.- Загл. с экрана.
- Как работает шина РCI // Мой друг компьютер.- 2016.- №10.- С.4-5.
- Какой процессор выбрать // Мой друг компьютер.- 2016.- №10.- С.9.
- Карманчиков А.И., Колесников В.С., Мерзлякова Д.Р. Прогнозирование проблем информационно-психологической безопасности // Вектор науки Тольяттинского государственного университета. Серия: Педагогика, психология.- 2014.- № 3.- С. 99–102.
- Карминский А.М., КарминскийС.А., НестеровВ.П., Черников Б.В. Информатизация бизнеса: концепции, технологии, системы.- М.: Финансы и статистика, 2014.- 624 с.
- Ковтанюк Ю. С. Библия пользователя ПК.- М.: Диалектика, 2016.- 992 с.
- Коноплева И. А., Хохлова О. А., Денисова А. В. Информационные технологии : учеб. пособие для вузов.- М.: Проспект, 2012.-295 с.
- Краткая история и основные принципы работы 3D-ускорителей [Электронный ресурс]. – Режим доступа: http://www.izcity.com/data/hard/article528.htm.- Загл. с экрана.
- Куда нас ведет CUDA // Компьютер.- 2015.- № 10.- С. 47-49.
- Леонтьев В.Р. Новейшая энциклопедия персонального компьютера. – М.: Олма-Пресс, 2016.- 396 с.
- Макарова Н.В. Информатика. М.: «Финансы и статистика», 2011.- 400 с .
- Малыхина М.П., Герасимов Д.А. История развития и современное состояние квантового компьютера / Малыхина М.П., Герасимов Д.А. // Научные труды КубГТУ.- 2016.- № 3.
- Миков А.И., Замятина Е.Б. Система имитации с удаленным доступом // Материалы третьей междисциплинарной конференции с международным участием (НБИТТ-21), 21-23 июня 2014 г., Петрозаводск. - С. 73.
- Микропроцессорная индустрия готовится к будущему // Мой друг компьютер.- 2016.- №13.- С.6-7.
- Миняев М.Ф., Информационные технологии управления: В 3-х книгах. Книга 2. Информационные ресурсы.- М.: Омега, 2014. - 432 с.
- Миронов К.Е., Поискова Т.Р. Информационная безопасность в инновационной деятельности образовательных учреждений // Вестник НГИЭИ.- 2013. - № 11 (30).- С. 60–65.
- Михеева Е.В. Информационные технологии в профессиональной деятельности: учеб. пособие для студ. сред. проф. образования. - М.: Издательский центр «Академия», 2013.- 384 с.
- Мураховский В. Железо ПК. Новые возможности.- СПб.: Питер, 2015.- 392с.
- Мюллер С. Модернизация и ремонт ПК.- М.: Вильямс, 2015.- 504 с.
- На предельной скорости // CHIP.- 2016.- № 1.- С.70-74.
- Наночастица кремния – кандидат в сверхбыстрый оптический транзистор [Электронный ресурс]. – Режим доступа: https://www.nkj.ru/news/26971.- Загл. с экрана.
- Наступает новая компьютерная эра. Microsoft предсказал будущее пользователей компьютеров до 2020 года [Электронный ресурс]. – Режим доступа: http://monoblog.su/?p=128.- Загл. с экрана.
- Новые технологии хранения данных // CHIP.- 2016.- № 1.- С.34-40.
- Новый процессор Intel Core на базе 45-нанометровой производственной технологии.- М., 2012.- 65 с.
- Оптические процессоры года [Электронный ресурс]. – Режим доступа: http://dfe.petrsu.ru/koi/posob/optproc/readyopt.html.- Загл. с экрана.
- Оокоси Е. Оптоэлектроника и оптическая связь.- М.: Мир, 2015.- 629 с.
- Оперативная память будущего // CHIP.- 2016.- № 2.- С.54-57.
- Пасько В. Энциклопедия ПК. Аппаратура. Программы. Интернет.- СПб.: Питер, 2015.- 800 с.
- Пахомов С. Революция в мире графических процессоров // КомпьютерПресс.-2016.- № 6.- С.25-31.
- Петров В.Н.Информационные системы.- СПб. : Питер, 2013. 688 с.
- Плюсы и минусы SSD // Мой друг компьютер.- 2016.- №8.- С.6.
- После кремния: электроника будущего // CHIP.- 2015.- № 11.- С.122-124.
- Прохоров А М., Д. М., Балдин А.М. Физическая энциклопедия. Пойнтинга-Робертсона эффект- Стримеры.- М.: Большая рос. энцикл., 1994. - 704с.
- Процессорные гонки. История оверклокинга // CHIP.- 2016.- № 1.- С.56-60.
- Путеводитель по SSD. Выбираем замену для HDD и переносим информацию// CHIP.- 2015.- № 6.- С.130-134.
- Романченко В. Электроника-2020 – жизнь после смерти кремния [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/572637.- Загл. с экрана.
- Секреты кремниевого камня // Мой друг компьютер.- 2016.- №8.- С.14-17.
- Следующее поколение микроархитектуры Intel Core.- М., 2015.- 48 с.
- Cоздан первый рабочий прототип электронно-оптического процессора [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/92574
- Супербыстрая память // CHIP.- 2016.- № 7.- С.36-40.
- Титаренко Г.А. Информационные технологии управления: Учеб. пособие для вузов. М.:ЮНИТИ-ДАНА, 2012.- 600 с.
- Тонкий тюнинг Ivy Bridge // IT Expert.- 2016.- №5.- 48-49.
- Трофимова В.В. Информационные системы и технологии в экономике и управлении.- М.: Высшее образование, 2016.- 480 с.
- Холево А. С. Квантовая информатика: прошлое, настоящее, будущее // В мире науки: журнал. - 2008. - № 7.
- Фейнман Р.Ф. Внизу полным-полно места: приглашение в новый мир физики // Журнал Рос. хим. об-ва им. Д. И. Менделеева.- 2012.- №5.
- Четыре миллиарда транзисторов // Компьютер Билд.- 2016.- №1.- С.6.
- Что быстрее CPU или GPU? [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/video/what_is_faster_gpu_or_cpu.- Загл. с экрана.
- Что такое вычисления на GPU? [Электронный ресурс]. – Режим доступа: www.nvidia.ru/page/gpu_computing.html.- Загл. с экрана.
- Эволюция видеокарт [Электронный ресурс].– Режим доступа: http://www.overclockers.ua/video/gpu-evolution/?print.- Загл. с экрана.
- Ярославцев А.Ф. Методы и программные средства гибридного моделирования мультисервисных сетей большой размерности: Дисс. докт. техн. наук. - Новосибирск, 2015.- 298 с.
- habrastorage.org/files/f93/f50/db3/f93f50db30f44938a8d0773f62e2d49d.jpg
- habrastorage.org/files/f76/fff/13b/f76fff13bd234e6f93247a4255fe52db.jpg
- habrastorage.org/files/112/d52/f8c/112d52f8c8ec44ecacd98b6058113371.png
- https://ru.wikipedia.org/wiki/глубокий ультрафиолет
- habrastorage.org/files/bf1/d94/5dd/bf1d945ddfa84424b55a9cfc30961198.png
- habrastorage.org/files/9cb/8e6/a0d/9cb8e6a0d0f14e89b2c2ddb70df368dc.png
- habrastorage.org/files/1f6/5f2/88a/1f65f288a2bf4987800c0a526f25aff3.png
- habrastorage.org/files/11c/f16/3ac/11cf163aceec495585e3fda6e6a327e5.png
- www.tf.uni-kiel.de/matwis/amat/semitech_en/kap_2/backbone/r2_3_1.html
- www.extremetech.com/extreme/120353-the-future-of-cpu-scaling-exploring-options-on-the-cutting-edge
- http://arstechnica.com/gadgets/2015/02/intel-forges-ahead-to-10nm-will-move-away-from-silicon-at-7nm/
- http://www.extremetech.com/extreme/199636-intel-at-isscc-14nm-in-the-bag-full-steam-ahead-on-10nm
- http://www.anandtech.com/show/8991/intel-at-isscc-2015-reaping-the-benefits-of-14nm-and-going-beyond-10nm
- http://geektimes.ru/post/246676/
Приложение 1
Принцип действия HYBRID MEMORY CUBE
Приложение 2
Приложение 3
Приложение 4
Сравнительный анализ новейших графических адаптеров
Название, производительно | Описание | Плюсы | Минусы |
Zotac GeForce GTX Titan | На сегодняшний день GTX Titan — самая быстрая однопроцессорная видеокарта с умеренным энергопотреблением и приемлемой шумностью. Она может выводить картинку сразу на четыре монитора, поддерживает технологии формирования стереоизображения 3D Vision и ускорения расчета физических эффектов в играх PhysX. В итоге пользователь ПК получает идеальное решение. | Очень высокая производительность, умеренное энергопотребление | Высокая цена |
Club3D Radeon HD 7990 | Видеокарта от компании Club3D, построенная на базе двух графических чипов Tahiti XT, продемонстрировала феноменальный уровень быстродействия. Однако ее трехслотовая система охлаждения с тремя вентиляторами оказалась самой громкой, а потребляемая мощность — заоблачной. Данное решение имеет отличный запас мощности и не потеряет своей актуальности в ближайшие год-полтора. | Очень высокая производительность | Высокие шумность и энергопотребление |
MSI GeForce GTX 670 | Главные особенности этой модели GeForce GTX 670 от MSI — фирменная система охлаждения Twin Frozr IV, улучшенная печатная плата и повышенная частота работы графического процессора, благодаря чему устройство оказалось всего лишь на 4,8% медленнее GeForce GTX 680 DirectCU II TOP от ASUS. Стоимость ускорителя ниже почти на 30%, благодаря чему он и удостоился звания «Оптимальный выбор». | Высокая производительность, низкое энергопотребление, приемлемая цена | Нет |
ASUS Ares II | Эта уникальная разработка компании ASUS наделена двумя графическими процессорами Tahiti XT и 6 Гбайт памяти. Модель поставляется с предустановленной системой водяного охлаждения, которая работает умеренно тихо и очень эффективно отводит тепло. Однако это самая быстрая, самая дорогая и самая «прожорливая» видеокарта в тесте, потребляющая под нагрузкой до 550 Вт мощности. | Очень высокая производительность, тихая система охлаждения | Высокие цена и энергопотребление |
ASUS GTX 680 DirectCU II TOP | Модифицированная версия графического адаптера GeForce GTX 680 от ASUS примечательна фирменным трехслотовым кулером DirectCU II и разогнанным на 137 МГц в заводских условиях графическим процессором. В целом, это в меру тихий, экономичный, холодный и достаточно быстрый ускоритель, вычислительных ресурсов которого достаточно для запуска любых игр с разрешением 1920x1080 точек. | Высокая производительность, уме- ренные энергопотребление и шум | Громоздкая трехслотовая система охлаждения |
ASUS MATRIX HD7970 Platinum | ASUS не только увеличила номинальные частоты этой модели Radeon HD 7970 с 1000/5500 МГц до 1050/6600 МГц, но и полностью переделала печатную плату, существенно увеличив количество фаз питания видеочипа и микросхем памяти, что благотворно сказалось на разгонном потенциале. Компания также заменила стандартный кулер более эффективным и тихим, но при этом весьма громоздким. | Высокая производительность, хороший разгонный потенциал | Высокое энергопотребление, гро моздкая система охлаждения |
Приложение 5
Принцип действия флеш-памяти
Приложение 6
Принцип действия памяти SONOS
Приложение 7
Принцип действия ферроэлектрической памяти (FERAМ)
Приложение 8
Принцип действия магниторезистивной памяти (МRАМ)
Приложение 9
Принцип действия памяти на основе фазового перехода и резистивной памяти
Рисунок 1 - Принцип действия памяти на основе фазового перехода
Рисунок 2 - Принцип действия резистивной памяти (RERAМ)
Приложение 10
Принцип действия памяти с проводящим мостом (СВRАМ)
Приложение 11
Динамика числа транзисторов в микропроцессорах Intel
Наступает новая компьютерная эра. Microsoft предсказал будущее пользователей компьютеров до 2020 года [Электронный ресурс]. – Режим доступа: http://www.sostav.ru/news/2012/04/09/4/ ↑
Антипина Г.С., Гайфуллин Б.Н., Современные информационные технологии. Обучение и консалтинг.- М.: «СИНТЕГ, Интерфейс-ПРЕСС», 2009.- 187 с.; Гохберг Г.С., Зафиевский А.В., Короткин А.А. Информационные технологии.- М.: Академия, 2013.- 210 с.; 3. Карминский А.М., КарминскийС.А., НестеровВ.П., Черников Б.В. Информатизация бизнеса: концепции, технологии, системы.- М.: Финансы и статистика, 2014.- 624 с. ↑
Макарова Н.В. Информатика. М.: «Финансы и статистика», 2011. 400 с ; Трофимова В.В. Информационные системы и технологии в экономике и управлении.- М.: Высшее образование, 2016.- 480 с. ↑
Петров В.Н.Информационные систем.- СПб.: Питер, 2013.- 688 с. ↑
ТитаренкоГ.А. Информационные технологии управления: Учеб. пособие для вузов. М.:ЮНИТИ-ДАНА, 2012.- 600 с.; Голицина О.Л. Информационные технологии.- М.: Инфра-М, 2013.- 607 с. ↑
Коноплева И. А., Хохлова О. А., Денисова А. В. Информационные технологии : учеб. пособие для вузов.- М.: Проспект, 2012.-295 с.; Миняев М.Ф., Информационные технологии управления: В 3-х книгах. Книга 2. Информационные ресурсы.- М.: Омега, 2014. - 432 с. ↑
Михеева Е.В. Информационные технологии в профессиональной деятельности: учеб. пособие для студ. сред. проф. образования. - М.: Издательский центр «Академия», 2013.- 384 с. ↑
Завиваев Н.С., Шамин Е.А. Определение оценки конкурентоспособности в сфере инфокоммуникационных услуг // Вестник НГИЭИ.- 2013.- № 3 (22).- С. 41–51.; Истомина Т.В., Дунин В.О., Егоров В.А. Проектирование и разработка интеллектуальной информационной системы поддержки медицинских учреждений // XXI век: итоги прошлого и проблемы настоящего.- 2014. -№ 1 (17).- С. 184–190.; Зубренкова О.А., Шигорина Н.А. Выбор автоматизированной информационной системы - основа формирования производственно-opганизационной структуры предприятия // Вестник НГИЭИ.- 2014.- № 7 (38).- С. 97–103. ↑
Федотова Е.Л. Информационные технологии в профессиональной деятельности: Учебное пособие.- М.: ИД ФОРУМ, НИЦ ИНФРА-М, 2012.- 368 c.; Федотова Е.Л. Информационные технологии и системы: Учебное пособие. М.: ИД ФОРУМ, НИЦ ИНФРА-М, 2013.- 352 c. ↑
Напреев Я.Л. Система информационной безопасности предприятия агропромышленного комплекса // Азимут научных исследований: экономика и управление.- 2013.- № 2. С. 19–20; Миронов К.Е., Поискова Т.Р. Информационная безопасность в инновационной деятельности образовательных учреждений // Вестник НГИЭИ.- 2013. - № 11 (30).- С. 60–65.; Бочкарёва Ю.Г. Информационные механизмы общественной безопасности // XXI век: итоги прошлого и проблемы настоящего.- 2013.- № 7 (11).- С. 293–298.; Васильчук О.И. Средства компенсации угроз и аудита безопасности корпоративной информационной системы// Вестник Поволжского государственного университета сервиса. Серия: Экономика.- 2013.- № 4 (30).- С. 127–131.; Карманчиков А.И., Колесников В.С., Мерзлякова Д.Р. Прогнозирование проблем информационно-психологической безопасности // Вектор науки Тольяттинского государственного университета. Серия: Педагогика, психология.- 2014.- № 3.- С. 99–102. ↑
Следующее поколение микроархитектуры Intel Core.- М., 2017.- С. 11. ↑
Мураховский В. Железо ПК. Новые возможности.- СПб.: Питер, 2017.- С. 145. ↑
Мюллер С. Модернизация и ремонт ПК.- М.: Вильямс, 2017.- С. 112. ↑
Графические процессоры для высокопроизводительных вычислений [Электронный ресурс]. – Режим доступа: http://gpu.parallel.ru/ ↑
Ковтанюк Ю. С. Библия пользователя ПК.- М.: Диалектика, 2016.- С. 81. ↑
Оперативная память будущего // CHIP.- 2016.- № 2.- С.55. ↑
Пасько В. Энциклопедия ПК. Аппаратура. Программы. Интернет.- СПб.: Питер, 2017.- С. 99. ↑
Тонкий тюнинг Ivy Bridge // IT Expert.- 2016.- №5.- С. 48. ↑
Как работает шина РCI // Мой друг компьютер.- 2016.- №10.- С.5. ↑
NVIDIA 3D Vision 2. Новая версия популярной 3D-технологии // CHIP.- 2016.- №2.- С.59. ↑
На предельной скорости // CHIP.- 2016.- № 1.- С.73. ↑
Дальнейшее развитие микропроцессоров может потребовать отказа от кремния [Электронный ресурс]. – Режим доступа: http://www.pvsm.ru/e-lektronika/84619.- Загл. с экрана. ↑
http://habrastorage.org/files/112/d52/f8c/112d52f8c8ec44ecacd98b6058113371.png ↑
http://habrastorage.org/files/bf1/d94/5dd/bf1d945ddfa84424b55a9cfc30961198.png ↑
http://habrastorage.org/files/9cb/8e6/a0d/9cb8e6a0d0f14e89b2c2ddb70df368dc.png ↑
http://habrastorage.org/files/11c/f16/3ac/11cf163aceec495585e3fda6e6a327e5.png ↑
http://habrastorage.org/files/f93/f50/db3/f93f50db30f44938a8d0773f62e2d49d.jpg ↑
Оокоси Е. Оптоэлектроника и оптическая связь.- М.: Мир, 2016.- С. 155. ↑
Фейнман Р.Ф. Внизу полным-полно места: приглашение в новый мир физики // Журнал Рос. хим. об-ва им. Д. И. Менделеева.- 2012.- №5. ↑
29 января в истории [Электронный ресурс]. – Режим доступа: http://www.ferra.ru/ru/techlife/news/2016/01/29/day-in-tech-history-january-29/#.WDH7KrKLSzc.- Загл. с экрана. ↑
Оптические процессоры года [Электронный ресурс].– Режим доступа: http://dfe.petrsu.ru/koi/posob/optproc/readyopt.html.- Загл. с экрана. ↑
Оптические процессоры года [Электронный ресурс].– Режим доступа: http://dfe.petrsu.ru/koi/posob/optproc/readyopt.html.- Загл. с экрана. ↑
Cоздан первый рабочий прототип электронно-оптического процессора [Электронный ресурс]. – Режим доступа: http://www.3dnews.ru/92574.- Загл. с экрана. ↑
Наночастица кремния – кандидат в сверхбыстрый оптический транзистор [Электронный ресурс]. – Режим доступа: https://www.nkj.ru/news/26971.- Загл. с экрана. ↑
Наночастица кремния – кандидат в сверхбыстрый оптический транзистор [Электронный ресурс]. – Режим доступа: https://www.nkj.ru/news/26971.- Загл. с экрана. ↑