По каким законам развивается ИТ-индустрия?

На конференции IBM по мэйнфреймам, которая прошла в Киеве 13 марта, было затронуто много интересных вопросов. Открывая конференцию, Сергей Каплун, ведущий специалист департамента корпоративных систем IBM Ukraine, сравнил этапы развития ЦОД с эволюцией поршневых двигателей. Несмотря на то, что объекты сравнения относятся к разным областям техники, у них прослеживается общее. В двигателях современных автомобилей используются технические решения, примененные много лет назад в авиационных поршневых двигателях. Это позволяет достичь сегодня характеристик, которые были получены в авиации в средине 40-х годов прошлого века. Кроме того, модифицированный воздушный винт, казалось бы, исчерпавший себя как двигатель, можно увидеть на современных самолетах. Как правило, на каждом этапе развития технологий люди возвращаются к старым техническим решениям, но на более совершенном уровне.

Как это работает в ИТ-индустрии, а именно в современных вычислительных системах, – тема нашей беседы с Сергеем Каплуном.

Говоря об эволюции технологий, Вы затронули, скорее, философский вопрос. На самом деле линейная эволюция является спиралевидной.

Совершенно верно. Но, не зная об этом и смотря только с одной точки зрения, иногда кажется, что путь ведет только "в гору", то есть по прямой. Наверное, полезно вспомнить классическую немецкую философию Гегеля – диалектику. Законам диалектики подчинено развитие материи в мире, в котором мы живем.

Два года назад специалисты IBM заявили, что не пойдут по пути снижения частоты процессора (как это сделали Intel и AMD), и создали процессор с тактовой частотой 4,7 ГГц. О какой энергоэффективности и эволюции в процессоростроении мы можем говорить?

На самом деле все просто. С одной стороны, тепловыделение растет с увеличением частоты. С другой – зависит от технологического уровня, размера микроэлемента. Известно, что увеличение частоты процессора в 2 раза приводит к нелинейному росту тепловыделения: оно будет составлять 23.

Если мы будем миниатюризировать устройство, то увеличение частоты не будет приводить к подобному эффекту. Создавая процессор по современной нанометровой технологии, с меньшим типоразмером, например, 35 нм или 22 нм, мы можем повышать его рабочую частоту не опасаясь перегрева.

Поэтому все новые процессоры IBM семейства POWER, да и процессоры, на основе которых построены современные мэйнфреймы, работают с двукратным и более повышением частоты по сравнению со своими предшественниками. При этом энергопотребление и, соответственно, тепловыделение систем остались прежними.

Однако возникает другая проблема: миниатюризация кристалла приводит к затруднению отвода тепла. Именно об этом заговорили многие специалисты, услышав о переходе Intel на 45 нм.

Не совсем так. Обратите внимание: в основе каждой технологии лежат фундаментальные исследования. IBM принадлежат патенты на использование медных соединений, "растянутый" кремний, трехмерное размещение (элементы микроэлектронного устройства расположены не только в горизонтальной плоскости в слоях, но и вертикально), "воздушные промежутки" (изоляция соединений осуществляется созданием пустот, напоминающих пористую структуру раковин некоторых моллюсков). Именно эти достижения направлены на сокращение утечек и потерь в соединениях, делают отвод тепла более эффективным и позволяют изготовить компактный микропроцессор с меньшим энергопотреблением и тепловыделением.

Сегодня производителей средств вычислительной техники больше всего волнуют две технические проблемы. И о них говорят открыто. Первая заключается в том, что якобы перестал действовать закон Мура (удвоение частоты, уменьшение размера и удвоение числа выполняемых операций каждые 18 месяцев – 2 года), дальнейшее уменьшение размеров и повышение тактовой частоты и производительности затруднено, нужно заниматься многопотоковыми вычислениями, распараллеливанием процессов и совершенствовать механизмы управления потоками вычислений. К сожалению, есть существенные затруднения на этом пути: недостаточная научная проработка, отсутствие в современных средах разработки программного обеспечения и, как следствие, в широко применяемых в настоящее время программных продуктах эффективных механизмов распараллеливания процессов обработки данных и балансировки нагрузки между распределенными узлами. Вторая проблема – отставание темпов увеличения скорости памяти от роста тактовой частоты процессора. Все пытаются отодвинуть "стену памяти" разными способами: увеличением объема и усложнением алгоритмов управления кэш-памятью, совершенствованием архитектур с неоднородным доступом к памяти (NUMA), специфической организацией многопотоковых вычислений, специализацией процессоров для определенных видов приложений.

Насколько успешно это получается, можно легко увидеть, анализируя результаты стандартных индустриальных тестов на производительность, изучая рекомендации и опыт применения серверов для различных приложений, возможности масштабирования машин разных производителей и т.д.

Хотелось бы сказать о другом. На мой взгляд, повышение эффективности использования вычислительных ресурсов не требует коренных изменений в организации вычислений и сегодня является оптимальным способом сокращения стоимости владения инфраструктурой, сопровождающей эксплуатацию системы автоматизации, делает эту инфраструктуру адаптируемой к изменяющимся условиям. К сожалению, большинство коммерческих приложений, которые эксплуатируются в ИТ-индустрии, недостаточно полно используют доступные вычислительные ресурсы именно по причине распределенности обработки данных между несколькими серверами и бытующего в настоящее время подхода: отдельное приложение – отдельный сервер.

Заметьте, оптимизировать и автоматизировать можно все. Любой поток данных имеет некую регулярную структуру, повторяемость. Нельзя автоматизировать только Хаос. Автоматизация предполагает повторяющиеся процессы в бизнесе, сокращает длительность процессов и удешевляет их. Поэтому математики иногда говорят, что система автоматизации является гомоморфным отображением мира бизнеса.

Получается, не обязательно идти по пути наращивания "процессорных мускулов". Следует заняться оптимизацией вычислительных систем?

Да, это один из вариантов и основная парадигма IBM. Для того чтобы загрузить сервер до 100% (в реальной жизни многие серверы сегодня используются на 15-20%), мы предлагаем разместить на нем множество разнородных приложений, составляющих систему автоматизации. А так как пики нагрузок со стороны этих приложений не совпадают во времени, то можно с меньшими вычислительными ресурсами решать большее количество задач, не прекращая доступ к работающим приложениям, перераспределять и использовать доступные вычислительные ресурсы более эффективно.

Речь идет о виртуализации?

Естественно. Виртуализация применяется в решениях IBM более 40 лет. Таким образом, заявления о новом революционном шаге в технологиях обработки информации на самом деле обычная "реинкарнация" или, если угодно, осознание другими производителями важности виртуализации ресурсов. Мэйнфреймы IBM практически с самого начала их разработки предполагали виртуализацию ресурсов, и IBM на протяжении длительного времени совершенствовала механизмы виртуализации. Эти машины можно разделить на разделы, совместно использующие вычислительные ресурсы: память, процессоры, подсистему ввода-вывода – что позволяет в рамках одного сервера консолидировать нагрузку нескольких сотен или тысяч серверов. Такой подход упрощает инфраструктуру ЦОД, сокращает затраты на администрирование, обеспечение безопасности, используемую площадь и т.д. Ввод второй и последующих машин в инфраструктуру позволит в этом случае не только повысить надежность, но и предоставить для работающих приложений однородную среду исполнения. Физически распределенные вычислительные ресурсы двух и более серверов выглядят для приложений практически как одна общая операционная система, использующая физически разделенные аппаратные средства.

На первый взгляд, все замечательно. Но по одному из законов диалектики – борьбы противоположностей – возникает новая проблема: централизация обработки требует высокоскоростных каналов связи.

Соглашусь с Вами. В условиях распределенной системы вычислений предполагается сетевое взаимодействие, технологии передачи информации, разработанные для Интернета, широко используются и в Интранет. Да и доля трафика Интернет, используемая для передачи бизнес-данных, постоянно увеличивается.

Однако в эпоху распределенных вычислений и Интернет-технологий вновь говорят о центрах обработки данных. Идея децентрализации великолепна, но, к сожалению, не все задачи эффективно решаются в распределенной сетевой структуре. Несколько машин, объединенных в кластер или слабосвязанную архитектуру, не всегда подходят для любого вида вычислений и любых приложений. Это отмечают сами производители, которые положили в основу корпоративной стратегии концепцию распределенных вычислений. Из-за чего возникает проблема? Из-за задержек (латентности) межузловых сетевых соединений.

Ни совершенствование активного сетевого оборудования, ни смена протоколов и стандартов передачи не способно решить эту проблему полностью по очень простой причине: конечная скорость света или электрического сигнала в среде передачи данных. Сравните, насколько эффективнее передавать и обрабатывать данные внутри самого процессора.

В лаборатории IBM демонстрируется микроэлемент, время переключения которого равно времени прохождения света через 1/100 толщины человеческого волоса. Здесь следует отметить, что IBM не стоит в стороне от технологий сетевого взаимодействия, например, наш давний партнер компания Cisco и некоторые другие производители сетевого оборудования предлагают в составе своих продуктов процессоры IBM.

При построении аппаратной инфраструктуры есть два подхода: горизонтальный и вертикальный. В первом случае привлекается множество машин, объединенных в сеть, во втором – один сервер делится на большое количество разделов.

В каждом из разделов запускаются разные операционные системы, совместно использующие доступные вычислительные ресурсы (процессоры, память, устройства ввода-вывода). Вместо того чтобы оснащать каждый из разделов физическим адаптером, подключать его к сети передачи данных и сети хранения для доступа к системам хранения, намного проще и дешевле использовать виртуальные адаптеры, совместно использующие меньшее число физических.

Есть еще один плюс: в случае обмена данными между разделами трафик вообще не выходит наружу, его не нужно защищать, резервировать пути и т.д. Механизм HyperSocket в System z (или виртуальный Ethernet в System p/i) позволяет разделам чрезвычайно быстро обмениваться информацией, используя стандартные протоколы сетевого обмена, без какой-либо смены приложений, работающих в разделах.

Именно по этим причинам с точки зрения эффективности использования ресурсов централизованный подход на современном этапе развития вычислительной техники является более предпочтительным. Относительно стоимости, вертикально масштабируемая инфраструктура оказывается эффективнее в несколько раз.

Многие производители сейчас заявляют о своих решениях как о наименее энергоемких. Будем честны, для наших пользователей эта проблема пока не так важна. Хотя в глобальном масштабе – да, выброс углекислого газа в атмосферу ИТ-индустрией весьма велик и в числовом выражении составляет 4%. Это очень много (столько же выделяет вся авиация мира – прим. ред.). Поэтому тема экономии электроэнергии, площади в ЦОД и сокращения эксплуатационных затрат на сегодня красной нитью проходит через всю маркетинговую политику вендоров.

До 70-х годов прошлого столетия экономисты считали, что отношения в системе "покупатель-продавец" подчинены максимизации функции полезности. Симбиоз: продавец предлагает более качественный и полезный товар, покупатель, приобретая его, помогает лидеру-производителю развивать бизнес и стимулирует конкуренцию. Такое поведение сторон принято называть рациональным. Однако спустя несколько лет появилось достаточно много работ психологов, описывающих нерациональное поведение людей в процессе принятия решений и выбора из нескольких альтернатив. Наиболее яркие примеры: "дилемма генерала" – предпочтение того или иного равновероятного выбора в зависимости от формулировки получаемого результата: потери или выигрыша; "денежный насос" – эксперименты, при которых предлагается выбирать, оплачивая каждый раз эту возможность, между несколькими товарами с небольшими отличиями (или не полностью осознаваемыми на определенном этапе выбора) в важных для выбирающего качествах. Выбор после нескольких шагов приводил к незначительно измененному или совершенно такому же товару, отвергнутому на первых этапах. К таким примерам также относится смещение предпочтения в выборе и ошибки в классификации предметов на основании частоты встречаемости или недостоверной априорной информации; чрезмерное доверие к собственному субъективному опыту; эксперименты, показывающие ограниченные способности человека при сравнении множества вариантов по множеству характеристик и ряд других. Это стимулировало появление в системах автоматизации таких компонентов, как системы управления взаимоотношениями с клиентами (CRM), информационные хранилища и аналитические системы поддержки принятия решений, помогающие преодолеть несовершенство, присущее человеку при решении сложных многовариантных задач.

Здесь я позволю себе высказать несколько крамольную мысль: эксплуатировать несовершенство человека при решении многокритериальных задач оптимизации бывает существенно проще, чем производить более качественный и полезный продукт.

И несколько слов о маркетинге и рекламе. Много лет назад первый президент IBM сформулировал простой и эффектный слоган компании – Think. Впоследствии он вошел во многие учебники по бизнесу: "Думайте! Это сэкономит чернила, деньги и труд". Думаю, что это очень актуально и сегодня для всех нас.

 Интервью провел Сергей Кучеренко

2008.04.07
19.03.2009
В IV квартале 2008 г. украинский рынок серверов по сравнению с аналогичным периодом прошлого года сократился в денежном выражении на 34% – до $30 млн (в ценах для конечных пользователей), а за весь календарный год – более чем на 5%, до 132 млн долл.


12.03.2009
4 марта в Киеве компания Telco провела конференцию "Инновационные телекоммуникации", посвященную новым эффективным телекоммуникационным технологиям для решения задач современного бизнеса.


05.03.2009
25 февраля в Киеве компания IBM, при информационной поддержке "1С" и Canonical, провела конференцию "Как сохранить деньги в условиях кризиса?"


26.02.2009
18-19 февраля в Киеве прошел юбилейный съезд ИТ-директоров Украины. Участниками данного мероприятия стали ИТ-директора, ИТ-менеджеры, поставщики ИТ-решений из Киева, Николаева, Днепропетровска, Чернигова и других городов Украины...


19.02.2009
10 февраля в Киеве состоялась пресс-конференция, посвященная итогам деятельности компании "DiaWest – Комп’ютерний світ" в 2008 году.


12.02.2009
С 5 февраля 2009 г. в Киеве начали работу учебные курсы по использованию услуг "электронного предприятия/ учреждения" на базе сети информационно-маркетинговых центров (ИМЦ).


04.02.2009
29 января 2009 года в редакции еженедельника "Computer World/Украина" состоялось награждение победителей акции "Оформи подписку – получи приз!".


29.01.2009
22 января в Киеве компания "МУК" и представительство компании Cisco в Украине провели семинар для партнеров "Обзор продуктов и решений Cisco Small Business"

 

 
 
Copyright © 1997-2008 ИД "Комиздат".