Обзор отрасли по производству микропроцессоров

Крупнейшие игроки в микропроцессорной отрасли из-за технологических барьеров не могут продолжить “гонку мегагерц”. Теперь они вынуждены идти на маркетинговые ухищрения.


До 2005 года основные производители микропроцессоров AMD и Intel долгое время шли по пути наращивания мощности своих чипов, попутно развивая несколько смежных направлений, таких, как производство памяти и сетевых контроллеров. Теперь конкуренция переходит в другую плоскость. Оба соперника активно экспериментируют с внутренним устройством своих процессоров, ведут агрессивные маркетинговые войны на выживание и распродают ставшие непрофильными активы. Но стратегическое видение обоих соперников совпадает: будущее – за целостными вычислительными платформами, процессор в которых является лишь одним из элементов.
Теперь ты меня догоняй!


Изменение характера конкуренции в микропроцессорной отрасли возникло не само собой, оно было вызвано технологическими проблемами. Вплоть до 2006 года развитие практически идеально укладывалось в недавно отметивший 40-летие закон Мура, согласно которому число транзисторов на чипе удваивается каждые полтора года. Но гладкая и предсказуемая “гонка числа транзисторов и мегагерц” была прервана сенсационным заявлением лидера отрасли Intel. Оно гласило, что далее повышать тактовую частоту чипов не имеет смысла, и будущее за процессорами, содержащими несколько вычислительных ядер, — по сути несколькими отдельными процессорами внутри одной микросхемы. Компания Intel пошла на такой неординарный шаг не от хорошей жизни. Дело в том, что в силу ряда особенностей повышение производительности процессоров Pentium 4, основанных на некогда революционной архитектуре NetBurst, практически полностью зависело от роста тактовой частоты — той самой “гонки мегагерц”. NetBurst изначально была ориентирована на сверхвысокие частоты и только на них могла реализовать свой вычислительный потенциал. Так, частота современного процессора AMD, приблизительно равного по общей производительности аналогу от Intel, примерно в полтора раза ниже. Но наращивать частоту чипа не просто. Чем выше частота, тем больше энергии требуется для питания процессора и тем сильнее он нагревается при работе. Чтобы преодолеть эти ограничения, необходим переход на новые технологические нормы (промышленный выпуск чипов с определенными линейными размерами элементов — транзистора и его затвора), иными словами — уменьшение размеров отдельных транзисторов внутри процессора. Соответственно, рост быстродействия Pentium 4 в значительной мере зависел от расторопности Intel в освоении все более “тонких” технологических процессов.


Анонсируя в 2000 году первые Pentium 4, корпорация Intel рассчитывала на стремительную смену технологических норм и обещала довести частоту Pentium 4 до 10 ГГц. Но ошиблась. Смена технологических процессов оказалась намного более сложной и дорогой. Это стало очевидным два года назад, когда, компания отказалась от планов по выпуску Pentium 4 с частотой 4 ГГц. “В принципе мы могли бы форсировать переход на более “тонкие” технологические нормы и довести частоты Pentium 4 и до 7, и до 8 ГГц, тем более что сама архитектура NetBurst это позволяет, — рассказывают в Intel, — только такие процессоры были бы воистину “золотыми””. Александр Беленький из AMD добавляет, что инвестиции в одну современную фабрику, способную производить несколько десятков миллионов процессоров в год, превышают 3 млрд долларов, а вложения в ее переоборудование под новый техпроцесс — около половины этой суммы. Основная проблема, подстерегающая инженеров при переходе на новые технологические нормы, — снижение выхода годных чипов. Даже при отлаженном производстве хорошим показателем считается, если годными признаются 90% микросхем. Это означает, что каждый десятый чип утилизируется еще на фабрике. Причина — в относительной нестабильности полупроводникового производства. На микро— и наноуровне даже незначительные недостатки в структуре кремния или микроклимате “чистой комнаты” способны привести к тому, что чип либо не будет работать ни на одной из предусмотренных маркетинговым планом частот (те самые рекламные мегагерцы), либо вообще окажется неработоспособным. При этом даже формально годные чипы совсем не однородны. Лишь малая часть из них содержит мало дефектов и способна работать на максимальной для данной линейки частоте. Остальные же в той или иной мере неидеальны, и потому после тестирования производитель присваивает им более низкую частоту. Подчеркнем, что такие разные процессоры сходят с одного и того же конвейера, и даже на одной “вафле” (кремниевой пластине с заготовками нескольких десятков чипов) два соседних кристалла могут иметь различные характеристики. Более того, точно сказать заранее, сколько процессоров с заданными параметрами получится из одной вафли, невозможно. Компания при расчете своих маркетинговых планов может лишь опираться на производственную статистику. Устанавливая цены на готовые процессоры, компания подбирает их таким образом, чтобы обеспечить устойчивые продажи всех чипов линейки — от медленных до самых быстрых. При составлении производственных планов компания вынуждена опираться на пессимистический сценарий, который далеко не всегда сбывается. И нередко получается, что при заранее установленном уровне цен спрос на какую-то высокопроизводительную модель процессора гораздо ниже реального выхода таких чипов. И компания волей-неволей вынуждена маркировать часть этих чипов как менее быстрые и продавать по более низкой цене. Кстати, именно поэтому в кругах компьютерных фанатов распространилась модная забава — “разгон” процессоров. Иными словами, самостоятельное повышение частоты работы чипа. Особенно удачные экземпляры удается разогнать на 20–25% даже без существенной модернизации системы охлаждения.


Дороговизна и технологическая сложность освоения “тонких” производственных норм привели к тому, что вплоть до сегодняшних дней процессоры Intel производятся по 90— и 65-нанометровому технологическому процессу. Из-за этого последние модели семейства Pentium 4 потребляют более 100 Вт энергии и сильно греются. А значит, требуют дорогой и шумной системы охлаждения: ведь охлаждение процессора с тепловыделением 100 Вт можно сравнить с задачей удержать температуру аналогичной по мощности электролампочки в пределах 60–65 градусов. Жидкостные системы охлаждения, гоняющие воду от процессора к внешнему радиатору, ранее считавшиеся экзотикой, стали стандартной частью любого “топового” игрового компьютера образца 2005–2006-х годов. Тогда же в индустрии заговорили не просто о производительности процессоров, а об отношении “производительность/Вт потребляемой энергии”.


Сложившаяся ситуация сыграла на руку главному конкуренту Intel — AMD. Не имея ресурсов на разработку принципиально нового процессора, компания AMD все эти годы совершенствовала свою удачную архитектуру K7/K8, имеющую немало общего с архитектурой Intel P6 — основой Pentium II/III. И в последние год-полтора процессоры AMD семейства Athlon уверенно опережали Pentium 4 практически по всем показателям: они потребляли меньше энергии, меньше грелись, да еще были быстрее в целом ряде задач. В итоге AMD, ранее старавшаяся продавать свои процессоры дешевле, чем аналоги от Intel, почувствовала себя увереннее, перешла к практике ценового паритета с конкурентом и начала увеличивать свою долю на рынке. По данным аналитической компании Mercury Research, в апреле этого года на мировом рынке доля серверных процессоров AMD Opteron достигла 22,1%. А в октябре прошлого года AMD обогнала Intel по общему количеству проданных процессоров на рынке США. На российском рынке CPU (Central Processing Unit, центральный процессор) дела у AMD тоже идут хорошо: по расчетам исследовательской компании Gartner, доля AMD в июле 2006 года достигала 27%.


Израильский козырь.


На тот момент Intel нечего было противопоставить стремительно набиравшему мощь конкуренту — ограниченная технологией производства чипов тактовая частота Pentium 4 застыла на отметке 3,8 ГГц. А это более чем в 2,5 раза ниже, чем предполагала Intel, делая ставку на архитектуру NetBurst. “Мы расслабились, — признал в беседе с “Экспертом” глава российского подразделения Intel Дмитрий Конаш. — Длительное лидерство на рынке сыграло с нами плохую шутку. Но, к счастью, Intel — большая компания и может позволить себе развивать не только одну технологию, но и вести параллельные разработки”. Такой разработкой стала архитектура P6. В 1990-х она была в мейнстриме, именно на ней были построены Pentium Pro, а также популярные Pentium II/III и Pentium M — основа платформы для ноутбуков Centrino. Глядя на ее успех, в Intel приняли решение взять архитектуру P6, разработанную специалистами Intel в израильской Хайфе, и дополнить ее наиболее удачными элементами NetBurst. В итоге на свет появилась архитектура Conroe. В этом году Intel приняла решение перевести все свои процессоры общего назначения (за исключением построенного совсем на иных принципах Itanium, ориентированного на высокопроизводительные серверы) на архитектуру Conroe.


Продавать больше.


Над преодолением барьеров на пути развития отрасли пришлось поработать не только технологам. Часть работы сделали маркетологи. Intel, а затем и в AMD оценили выгодность создания целостных компьютерных платформ, наилучшим образом соответствующих тем или иным задачам — для мобильных, офисных или домашних компьютеров.


“Мы хотели продавать больше”, — не скрывает Дмитрий Конаш из Intel. Но продавать больше процессоров не удавалось — в конце концов, процессор в большинстве компьютеров лишь один. И тогда Intel обратилась к другим компонентам ПК, в частности, к чипсетам и сетевому оборудованию. Объединив в марте 2003 года чипсет, беспроводной сетевой адаптер и мобильный процессор в единый комплект, Intel предложила его сборщикам ноутбуков под названием Centrino. В Intel отмечают: “В принципе, мы никого не заставляли покупать весь комплект. Любой производитель мог и может купить любой из элементов платформы Centrino отдельно от других и дополнить его компонентами сторонних компаний. Единственное, чего лишается такой ноутбук, — логотипа Centrino, а его пользователь — гарантий стабильности всей платформы от Intel”. Но Centrino стал настоящей бомбой — в прошлом году мировая рыночная доля ноутбуков на основе этой платформы достигала 97%! Успех было решено развить: в 2005–2006 годах Intel заявила еще две платформы: Viiv — для тихих мультимедийных домашних компьютеров — и vPro — для офисных рабочих станций.


AMD представила аналогичные разработки практически одновременно с Intel: в 2004 году компания показала платформу AMD Live! для дома, а в 2005-м — AMD Turion 64 для ноутбуков. Однако переход от “голых” процессоров к платформам для AMD был сложнее, чем для конкурента. Ведь корпорация Intel традиционно производила не только сами процессоры, но и чипсеты к ним, а также имела неплохие позиции в сфере сетевого оборудования и готовых материнских плат. Еще одним козырем Intel был успешный опыт производства видеопроцессоров. AMD всем этим похвастаться не могла. Последние годы она почти не выпускала чипсетов, отдав их производство на откуп партнерам, основные из которых — ATI, NVIDIA и VIA. Не было у компании и наработок в области графических решений. Что касается сетевого оборудования, то AMD для него выпускала лишь специализированные сигнальные процессоры Alchemy и практически не поставляла готовых продуктов. Да и само подразделение, ответственное за Alchemy, в июне этого года было продано компании Raza Microelectronics. Тем не менее компания AMD охотно подхватила “платформенную” инициативу Intel, в которой на первый взгляд выглядела намного слабее, чем в чисто процессорной гонке.


Причина — для AMD и Intel платформы играют разные роли. Для Intel переход к разработке и продаже платформ — способ продавать больше, вытесняя с рынка конкурирующих производителей чипсетов и сетевых адаптеров, а также средство ускоренного вывода на рынок инновационных решений, таких, как возможность дистанционного администрирования компьютеров vPro или бесшумность работы Viiv. Контролируя разработку всей платформы, Intel может продвинуть нововведения гораздо быстрее. Для AMD же платформа — это попытка создания альянса производителей, способного противостоять технологической и маркетинговой мощи Intel. Александр Беленький цитирует одного из основателей AMD Джерри Сандерса: “Победить 100-фунтовую гориллу может только виртуальная горилла”.


Но в “виртуальной горилле” можно стать мозгами — привилегированным разработчиком, определяющим дальнейшее развитие платформы и собирающим роялти с остальных участников, а можно — производителем стандартных элементов, задыхающимся от стремящейся к нулю рентабельности. В силу имеющихся у AMD технологических и маркетинговых наработок последняя роль ей не грозила и так, но вот за право возглавить “гориллу” предстояло побороться. И конкурентами в этой борьбе были крупнейшие производители чипсетов для процессоров AMD — канадская ATI и американская NVIDIA, основным бизнесом которых является разработка высокопроизводительных видеопроцессоров. Контролируя чипсеты и видео, любой из этих конкурентов мог оспорить право AMD возглавлять конкурирующий с Intel альянс. И тогда AMD прибегла к решительным действиям: в июле этого года она сообщила о приобретении ATI (см. “В погоню за платформой”, “Эксперт” № 29 (523) от 14 августа 2006 года), заплатив ее акционерам изрядную премию — около 24% рыночной стоимости компании. Купив ATI, AMD в одночасье получила контроль над производством чипсетов для своих процессоров и самыми передовыми технологиями видеопроцессоров. Intel в этой ситуации остается лишь спешно наращивать свои возможности в области графических процессоров. Только в первой половине октября она заключила два стратегических соглашения с разработчиками видеопроцессоров — американской Imagination Technologies и NVIDIA, главным конкурентом ATI.


Простых решений не будет.


Разработка и вывод на рынок целостных платформ — маркетинговый шаг, позволяющий производителям процессоров сохранить свои доходы в условиях, когда цены падают, а убедить покупателя в превосходстве новых процессоров над старыми все сложнее. Но как будет развиваться отрасль в технологическом плане? Очевидно, что в будущем программам (и особенно играм) будет требоваться все большая и большая производительность, и рассчитывать отвлечь внимание потребителей “платформами”, вычислительная мощность которых зависит от целого ряда компонентов, вряд ли удастся.


Универсального решения у разработчиков графических и центральных процессоров нет. Наращивать производительность придется за счет одновременного продвижения сразу по нескольким направлениям.


Во-первых, по-прежнему будет совершенствоваться процесс производства чипов, что позволит переходить на более “тонкие” технологические нормы. Intel уже объявила о начале опытной выработки “вафель” по 45-нанометровой технологии. Серийный выпуск таких микропроцессоров начнется во второй половине 2007 года. А консорциум из американской IBM, германской Infineon, сингапурской Chartered Semiconductor Manufacturing и южнокорейской Samsung уже объявил о полной готовности к выпуску чипов по 45-нанометровой технологии. Ведутся изыскания (пока в основном научно-конструкторские) и по освоению следующего этапа — 32-нанометрового техпроцесса. Таким образом, говорить о прекращении прогресса в этой сфере нельзя. Вместе с тем полагаться на стремительную смену технологических норм производители не будут — этот процесс будет все более затратным и менее предсказуемым. Уже через несколько лет инженеры могут столкнуться с квантовыми эффектами, мешающими работе чипа, сделанного по чересчур “тонкому” техпроцессу. Этот факт будет означать начало заката традиционной кремниевой технологии производства микросхем. Ей на смену должны придти кремниево-оптические чипы, транзисторы в которых будут управлять потоками фотонов, а не электронов. Преимущества этого подхода очевидны: такие микросхемы обещают быть кратно более быстрыми и экономичными. Основная техническая проблема таких чипов сегодня — сложность интеграции источников света, т. к. кремний способен лишь проводить его, но не излучать. Впрочем, ведущие разработки в этой сфере IBM и Intel в этом году сообщили о существенных успехах. В Intel, например, научились “приклеивать” микроскопический источник света непосредственно к кремниевому волноводу.


Второе направление развития — дальнейшее увеличение количества вычислительных ядер в процессоре. В конце сентября на международном Intel Developer Forum компания представила прототип 80-ядерного процессора. До серийного производства таких монстров еще далеко, но первый 4-ядерный процессор Core 2 Quad появится в продаже уже в ноябре этого года. Основная проблема на этом пути — сложность разделения программного алгоритма на несколько процессоров (распараллеливание). Обнадеживает, что обычно на современных ПК одновременно работает несколько не зависящих друг от друга программ — например, текстовый редактор, Интернет-браузер и антивирус. В этом случае первые две программы могут делить одно ядро, а другое поступит в распоряжение антивируса, что значительно повысит скорость работы всех программ. Впрочем, не все так просто. Вот что говорит заместитель директора НИЦВ МГУ Владимир Воеводин: “Надеяться, что сама операционная система всегда оптимальным образом распределит нагрузку на отдельные разделы процессора, — наивно. Какой бы совершенной она ни была, чтобы достичь высокой производительности, разработчику прикладной программы все равно придется учиться писать приложения для многоядерных процессоров”. С этой точкой зрения согласны и в Intel, инициировавшей чтение специализированных курсов по параллельному программированию в ряде технических вузов.


Третья возможность увеличения производительности связана с использованием специализированных процессоров, помогающих центральному выполнять некоторые операции. Эта старая, в общем, идея (еще 386-е процессоры Intel иногда усиливались математическим 387-м сопроцессором) в настоящее время получила новый виток развития. Он связан с увеличением возможностей графических процессоров, используемых в видеокартах для ускорения расчетов трехмерных сцен. Как рассказал “Эксперту” PR-менеджер представительства ATI в России и СНГ Николай Радовский, в последнее время в отрасли наметилась тенденция к расширению роли графических чипов. Еще несколько лет назад они проектировались для выполнения фиксированного набора довольно простых операций, используемых для обработки графики. Сейчас же, с появлением поддержки так называемых шейдеров третьей версии (shader — программа, управляющая работой графического процессора) любые приложения получили возможность на лету перепрограммировать графическое ядро и “обучать” его исполнению самых разных функций. “Таким образом, — делает вывод Радовский, — теперь графический процессор можно загрузить не только замысловатой обработкой 3D-картинки, но и многими другими задачами, например, распознаванием образов, поисковыми алгоритмами, криптографическими вычислениями и тому подобным”. Архитектурно современные графические ядра существенно отличается от CPU: при меньших частотах работы они насчитывают до 48 конвейеров для одновременной обработки данных, поэтому передача сложных параллельных вычислений от CPU графическому процессору может обеспечить прирост производительности в десятки, а иногда даже в сотни раз. Эта технология получила название GPGPU (General-Purpose Computing on Graphics Processing Units, вычисления общего назначения на графическом процессоре), и разработки в этом направлении ведут все лидеры отрасли. Очевидно, однако, что после слияния AMD и ATI объединенная компания на шаг опередит конкурентов в этой области. Партнеры уже представили свое видение микропроцессора будущего, внутри которого соседствуют ядра CPU и GPU. Директор по технологиям AMD Фил Гестер в сентябре заявил, что его компания вместе со специалистами из ATI уже работает над такими процессорами. Гестер намекнул также, что первые такие чипы могут появиться на рынке уже в 2009 году. Эксперты оптимистично оценивают перспективы комбинированных процессоров. По мнению Владимира Воеводина, появление внутри процессора разделов, архитектурно “заточенных” под решение определенного вида задач, позволит значительно повысить его производительность.


Автор: Лев Никитин
Источник: журнал “Эксперт”

Добавить комментарий