Перспективные технологии: итоги и прогнозы

Сергей Асмаков, Наталия Елманова, Сергей Пахомов, Олег Татарников

Анализ бизнес-процессов и управление ими

Средства анализа бизнес-процессов

Управление бизнес-процессами

Средства управления бизнес-правилами

Инфраструктура бизнес-приложений

Виртуализация

Архитектура, управляемая моделью

Архитектура, ориентированная на сервисы

J2EE

Microsoft .NET

Управление данными

Архитектуры, основанные на службах данных

Хранилища данных бизнес-приложений

Linux как платформа для СУБД

Управление информационными активами предприятия

Управление информационным наполнением

Средства повышения эффективности работы и поддержки принятия решений

Технологии поиска в медиаданных

Открытые форматы офисных документов (Open XML, OpenDocument)

Офисные пакеты на основе Web 2.0

Платформы для бизнес-анализа

Excel как клиентская часть аналитических приложений

Программное обеспечение для информационной безопасности

Управление цифровыми правами

Управление идентификацией

Доступ с помощью единой «точки входа»

Мониторинг и предотвращение активности приложений

Управление доступом к сети

Программное обеспечение с открытым кодом

Серверы приложений Java EE с открытым кодом (Open-Source Java EE Application Servers)

Серверные операционные системы с открытым кодом

Linux как серверная платформа

Linux как корпоративная настольная ОС

Средства разработки с открытым кодом (Open-source application development tools)

Управление предоставлением ИТ-услуг

CobiT

Information Technology Infrastructure Library

Средства управления портфелями ИТ-услуг

Управление приложениями

Web-технологии

AJAX

Mashup

Корпоративные порталы

Управление информационным наполнением веб-сайтов

Web 2.0

Фолксономия

Анализ социальных сетей

Электронные дисплеи

Дисплеи, проецирующие изображение на сетчатку глаза

OLED- и LEP-дисплеи

3D-дисплеи на базе ЖК

Электронные чернила (e-ink)

Дисплеи на базе бистабильных ЖК-структур (ChLCD и PABN LCD)

Дисплеи на базе технологий SED, FED и NED

LCoS

Пикопроекторы

Оптические накопители

Голографическая запись

Видеопроигрыватели формата HD

Многослойные оптические носители для приводов на базе красного лазера

Интерфейсы «компьютер — человек»

Автоматизированный синхронный перевод (Speech-to-Speech Translation)

Сенсорные ткани (Fabric Sensors)

Распознавание жестов (Gesture Recognition)

Распознавание речи для мобильных устройств

Поиск на естественном языке

Распознавание речи на ПК

Цифровое перо (Digital Pens)

Распознавание рукописного текста

Машинный перевод

Распознавание речи в телефонии и в приложениях для контакт-центров

Синтез речи

Интерфейс «мозг — компьютер»

Телекоммуникации

Системы платежей на базе бесконтактных чипов (NFC)

Цифровое ТВ для мобильных телефонов

Сотовые сети четвертого поколения (4G)

Телеприсутствие (Telepresence)

IP-телевидение (IPTV)

Сервисы, базирующиеся на местоположении (Location-Based Services)

Технологии обработки данных с учетом местоположения (Location-Aware Technology)

Приложения, работающие с учетом местоположения (Location-ware applications)

Наземное цифровое телевидение (эфир)

Медиатехнологии

Медиацентр на базе ПК

Видеочаты

Интерактивное вещание

Мобильное видео по требованию

Видео по требованию

Технологии на замену кремния

Технология ДНК-вычислений (DNA Logic)

Молекулярные транзисторы

Quantum Computing

Транзисторы на углеродных нанотрубках

Перспективные технологии памяти

Полимерная память (PFRAM)

PRAM

MRAM

Технологии создания элементной базы

Кремниевая фотоника (Optical Silicon)

Многоканальные транзисторы (Multigate Transistors)

Post 193-nm Lithography

Иммерсионная литография (Immersion Lithography)

Промышленная струйная печать

Альтернативные источники питания

Тонкопленочные солнечные батареи

Компактные топливные элементы

 

Создание новых технологий, их развитие и воплощение в коммерческих продуктах — процесс непрерывный и закономерный. Без появления новых технологий остановился бы технический прогресс, а рыночную экономику ждал бы неминуемый коллапс. Однако каждая из новых разработок имеет свои особенности и определенный потенциал. Если одни могут лишь незначительно улучшить существующие решения, то другие способны совершить настоящий переворот в той или иной отрасли ИT-индустрии. Можно ли заранее оценить перспективность той или иной технологии?

К счастью, новые технологии появляются не каждый день. Это оставляет нам шанс разобраться в них раньше, чем они устареют и сойдут со сцены. Адекватная оценка потенциала готовящихся к выходу на рынок технологий важна для всех: пользователи получают стимул приобрести продукты с принципиально новыми возможностями, производители — расширить и разнообразить линейку предлагаемых решений, а бизнесмены — сделать выгодные инвестиции и получить хорошую прибыль.

Самостоятельно разобраться во всем многообразии современных ИT-технологий довольно сложно, и здесь на помощь приходят аналитики, обобщающие поток поступающих из различных источников данных и представляющие их в доступной для понимания форме. Одним из наиболее наглядных способов систематизации данных о развитии каких-либо процессов является графическое представление. Специалисты агентства Gartner, одного из ведущих мировых центров в области анализа современных ИT-технологий, создали графическую модель для представления данных о развитии новых технологий. Она получила название Hype Cycle, которое можно перевести как «цикл ажиотажа».

В соответствии с концепцией данной модели каждая новая технология в процессе своего развития проходит пять стадий, которым соответствуют определенные области графика (см. рисунок). Рассмотрим особенности каждого из этих периодов:

  1. Восход надежд (On the Rise/Technology Trigger) — область концептуальных технологий, обладающих, по мнению аналитиков и разработчиков, наиболее высоким потенциалом. Их ценность, как правило, не вызывает вопросов, но они являются еще недостаточно зрелыми для привлечения больших инвестиций и внедрения в коммерческих продуктах.
  2. Пик завышенных ожиданий (At the Peak/Peak of Inflated Expectations) — на этой стадии начинается массированная пропаганда преимуществ новой технологии в СМИ, привлекающая внимание общественности, а также потенциальных инвесторов и производителей. Стоит отметить, что подобные информационные кампании редко обходятся без явных спекуляций: аналитики с энтузиазмом пишут радужные отчеты о перспективах (зачастую умалчивая об уже известных недостатках и ограничениях) и прогнозируют вытеснение традиционных технологий по мере повсеместного внедрения новинки. Инвесторы, соблазненные грандиозными перспективами, начинают вкладывать средства в исследовательские работы и создание работающих прототипов; конкуренты, почуяв запах денег, предлагают собственные клоны данного решения. Как правило, основания для оптимизма в большинстве случаев действительно есть, однако их масштабы сильно преувеличены. Инвестиции на данном этапе рискованны, так как потенциал технологии может быть сильно переоценен. В некоторых случаях широко разрекламированное решение и вовсе оказывается пустышкой, сознательно раздутой для получения крупных грантов под те или иные исследования, представляющие интерес исключительно с точки зрения развития академической науки.
  3. Котловина разочарований (Sliding Into the Trough/Trough of Disillusionment) — после относительно недолгого периода раскрутки новинка либо сходит со сцены, либо занимает свое место в существующей инфраструктуре рынка. Энтузиазм сходит на нет, незадачливые инвесторы подсчитывают убытки, аналитики пишут отчеты о причинах неудач, а в глазах конечных пользователей широко разрекламированное решение теряет свою привлекательность. На этой стадии формируется негативное отношение к технологии, которая, с одной стороны, уже утратила статус новинки, а с другой — еще не продемонстрировала инвесторам и потенциальным пользователям свои убедительные преимущества по сравнению с существующими решениями. В процессе тестирования первых прототипов выявляется ряд существенных недостатков, которые отпугивают заинтересованных производителей. Мыльный пузырь, раздутый прессой вокруг перспективной разработки, лопается. Количество публикаций и упоминаний резко идет на убыль, и у многих создается впечатление, что данная технология ушла со сцены. Однако этот этап может оказаться наиболее привлекательным для инвесторов, так как перспективы применения данной технологии постепенно проясняются, а разработчик (или обладатель прав на изобретение), в связи со спадом интереса к технологии, становится более сговорчивым.
  4. Подъем жизнестойкости (Climbing the Slope/Slope of Enlightenment) — начинается новая стадия исследований, в ходе которой разработчики устраняют выявленные ранее недостатки, а также оптимизируют технологический процесс с учетом требований серийного производства. Начинается внедрение технологии в коммерческих продуктах. По мере роста количества пользователей и примеров успешной реализации данного решения наступает признание — сначала в среде специалистов, а затем и общественности. Инвестиции на данном этапе наименее рискованны, однако именно в этот момент крупные игроки соответствующего сегмента рынка стремятся поглотить небольшую компанию, сумевшую довести перспективную разработку до стадии серийного или предсерийного производства, — иногда для того, чтобы внедрить данную технологию в собственных изделиях, а в некоторых случаях — чтобы устранить потенциального конкурента и предать оригинальное изобретение забвению. Иногда небольшие компании-разработчики на этом этапе трансформируются в акционерные общества и входят в альянсы с одним или несколькими крупными игроками соответствующего сегмента рынка.
  5. Плато продуктивности (Entering the Plateau/Plateau of Productivity) — на этой стадии технология выходит на промышленный уровень и становится стабильно прибыльной, универсальной, общепризнанной и широко применяемой.

Стоит отметить, что развитие технологий по описанной модели в разные периоды времени происходит с различной скоростью. Более того, вовсе не обязательно, чтобы какая-то отдельно взятая технология последовательно проходила все пять этапов. Некоторые способны перескочить через тот или иной этап, в то время как другие периодически возвращаются на исходные позиции и начинают свой путь заново (такой цикл может повторяться несколько раз). Подобное происходило со многими технологиями — от распознавания рукописного ввода (сделав крупные инвестиции в ее развитие, компании из калифорнийской Кремниевой долины потеряли в общей сложности порядка миллиарда долларов) до Интернета (вспомните массовое разорение владельцев доменов зоны .com). Однако сегодня решения, которые когда-то уже вызвали разочарование (о чем все уже забыли), вновь обретают популярность.

 

Графическое представление модели Hype Cycle

Многие считают, что в современных условиях залогом успеха является первенство выхода на рынок с какой-то новой идеей или изобретением. Но в реальности очень часто рыночная ниша для новой технологии оказывается слишком узкой, а компании-производители, ухватившиеся за «перспективную» разработку и вложившие в ее развитие свои средства, слишком поздно это понимают. В ряде случаев потенциальные клиенты и партнеры оказываются просто не готовыми к применению новых технологий.

Более того, даже если ниша достаточно велика и рынок готов к принятию новой идеи, то разработчикам необходимо отразить атаки конкурентов, работающих над воплощением похожих решений. Компании, которые не могут постоянно разрабатывать новые способы эффективного использования своих ресурсов, отбрасываются на обочину рынка, где им остается бороться только за стремительно сокращающиеся рыночные ниши.

В этом обзоре, состоящем из нескольких тематических разделов, мы рассмотрим технологии, которые в 2007 году были отнесены аналитиками к числу наиболее перспективных.

Анализ бизнес-процессов и управление ими

Средства анализа бизнес-процессов

Моделирование и анализ бизнес-процессов используются совместно бизнес-пользователями и ИТ-специалистами с целью усовершенствования самих процессов и их ИТ-поддержки.

 

Средство моделирования и анализа бизнес-процессов ARIS
Business Architect (IDS Scheer)

В последние годы средства моделирования и анализа бизнес-процессов таких компаний, как Casewise, iGrafx, IBM, IDS Scheer, Microsoft, Proforma, Telelogic, активно применяются в проектах разработки и внедрения бизнес-приложений и систем управления предприятиями. Кроме того, в настоящее время и в мире, и в России возросло количество консалтинговых проектов, посвященных анализу и совершенствованию процессов как таковых независимо от их ИТ-обеспечения.

Управление бизнес-процессами

Управление бизнес-процессами — это один из современных принципов управления деятельностью компании, основанный на ее представлении в виде совокупности повторяющихся процессов, охватывающих разные подразделения. Хотя сам процессный подход к управлению предприятием не предполагает обязательного использования специализированных инструментов для управления бизнес-процессами, они, тем не менее, очень часто применяются в качестве одного из средств поддержки их эффективного выполнения, поскольку внедрение подобных средств делает процессы прозрачными и позволяет получить их количественные характеристики, такие как время выполнения каждого шага. Указанные средства, называемые иногда workflow-системами, поддерживают всевозможные механизмы взаимодействия между исполнителями процесса и различные виды правил и алгоритмов выполнения процесса, содержат средства интеграции с бизнес-приложениями и офисным ПО, инструменты уведомления пользователей о задачах и событиях, а также средства моделирования выполнения процессов.

 

Средство управления бизнес-процессами Ultimus BPM Suite

Согласно прогнозам Gartner Group, массовое применение подобных инструментов начнется только через несколько лет. Пока же средства управления бизнес-процессами таких компаний, как BEA, EMC, Fujitsu, IBM, Lombardi Software, Tibco Software, Ultimus и webMethods, применяются в основном на предприятиях, наиболее зависимых от изменений в законодательстве и переживающих острую конкурентную борьбу за рынок и потребителей (банки, страховые компании, телекоммуникационные компании).

Средства управления бизнес-правилами

Средства управления бизнес-правилами (Business Rule Engines) — это программное обеспечение, позволяющее определять, выполнять, проверять и поддерживать определенную бизнес-логику (называемую бизнес-правилами), описанную в виде деревьев решений, таблиц или иных способов описания алгоритмов. Средства управления бизнес-правилами обычно отделяют представление правил от механизмов их исполнения, позволяют находить несоответствия и противоречия в наборе правил, проверять их на полноту. Подобного рода средства могут существовать в виде как отдельных продуктов, так и составных частей другого программного обеспечения, например средств моделирования бизнес-процессов или бизнес-приложений.

 

Средство управления бизнес-правилами
Corticon Business Rule Management Studio (IDS Scheer)

Инфраструктура бизнес-приложений

Виртуализация

Виртуальные машины — это технология одновременного выполнения нескольких операционных систем на одном компьютере. Данная технология известна довольно давно — виртуальные машины для мэйнфреймов (в том числе и для отечественных — серии ЕС ЭВМ) широко использовались еще в начале 80-х годов. Однако ее активное применение на платформах, отличных от мэйнфреймов, началось примерно пять-шесть лет назад — именно тогда появились первые средства создания виртуальных машин для Windows и Linux от компаний VMware и Connectix (впоследствии ставшей частью корпорации Microsoft).

 

Возможность оптимизировать затраты на аппаратное обеспечение в то время привлекала разработчиков ПО, специалистов по конфигурационному управлению, тестированию и внедрению приложений, поэтому пик популярности указанного направления был достигнут довольно быстро, особенно в связи с тем, что в 2000-2001 годах начали появляться и первые серверные решения для виртуализации.

 

Microsoft Virtual PC

Сегодня далеко не все потенциальные потребители технологий виртуализации берут на себя риски, связанные с организацией гетерогенных серверных сред на основе виртуальных машин, опасаясь проблем несовместимости ПО разных производителей, а также проблем, связанных с безопасностью. Несмотря ни на что, данное направление весьма привлекательно для многих компаний вследствие того, что им предоставляется возможность существенного снижения совокупной стоимости владения ИТ-инфраструктурой.

Архитектура, управляемая моделью

Архитектура, управляемая моделью (Model-Driven Architecture, MDA), представляет собой предложенный консорциумом Object Management Group подход к отделению бизнес-функциональности приложений от технических особенностей их реализации. Данный подход основан на описании функциональности с помощью модели (например, UML-модели) и чтении этой модели с целью реализации описанной в ней функциональности на этапе выполнения приложения. В настоящее время к подобной технологии наблюдается повышенный интерес, проявляющийся в том, что начали появляться ее множественные реализации (в предыдущие годы более или менее широко была известна главным образом реализация шведской компании Bold, впоследствии ставшей частью компании Borland). Сдерживающим фактором роста интереса может стать отсутствие стандартов на некоторые технологические аспекты ее реализации, поэтому в ближайшие годы не стоит ожидать быстрого выхода этой технологии на плато продуктивности даже при росте интереса к ней со стороны крупнейших производителей ПО.

Архитектура, ориентированная на сервисы

Архитектура, ориентированная на сервисы (Service-Oriented Architecture, SOA), — это архитектура распределенных приложений, основанная на применении разделяемых интерактивных модулей, доступных в масштабе предприятия (а возможно, и за его пределами), обрабатывающих запросы с помощью стандартных интерфейсов и позволяющих замещать или перенаправлять запрос без повторного внедрения приложения. Толчком к развитию данного семейства технологий послужило развитие веб-служб, быстрое появление индустриальных стандартов в этой области и интерес крупных корпоративных пользователей к веб-службам как к реальному способу обеспечить интеграцию между несовместимыми технологически приложениями и платформами (хотя SOA предполагает использование отнюдь не только веб-служб). Одним из преимуществ применения SOA является меньшее время и стоимость адаптации ИТ-инфраструктуры и приложений к изменяющимся бизнес-процессам. Хотя использование архитектуры, ориентированной на сервисы, и сдерживается в ряде случаев определенными техническими трудностями при ее внедрении, оно, тем не менее, становится все более распространенным, в том числе благодаря росту популярности средств анализа и моделирования бизнес-процессов, включающих средства поддержки SOA.

J2EE

Java 2 Platform, Enterprise Edition (J2EE) — разработанная компанией Sun Microsystems платформа для создания многозвенных бизнес-приложений с высокими требованиями к надежности и переносимости, выполняющихся под управлением различных операционных систем и использующих в качестве инфраструктурного ПО серверы приложений, предоставляющие несколько стандартных программных интерфейсов для выполнения бизнес-объектов (таких как сервлеты, компоненты Enterprise JavaBeans и др.). В данный момент J2EE широко применяется в корпоративных решениях ведущих производителей ПО, в том числе IBM, Oracle, Novell, обеспечена достаточным количеством стандартов и поддерживается сообществом разработчиков с открытым кодом. Фактически эта технология уже находится на плато продуктивности.

Microsoft .NET

Microsoft .NET представляет собой платформу для разработки бизнес-приложений масштаба предприятия и web-приложений с высокими требованиями к надежности, входящую в состав последних версий операционных систем семейства Windows. На ее реализацию определенное влияние оказала платформа J2EE — при создании .NET в Microsoft постарались учесть многие недостатки, например использование единственного языка программирования.

Активное применение и рост популярности этой платформы ни у кого уже не вызывает сомнений — несмотря на доступность только для одного семейства операционных систем, указанная технология поддерживается ведущими производителями бизнес-приложений, включая SAP. Окончательного выхода этой платформы на плато продуктивности можно ожидать лишь через 2-3 года, однако это может случиться и раньше за счет реализации соглашений Microsoft с Novell и других подобных соглашений, что снизит риск появления гетерогенных решений в компаниях, уже внедривших продукты на основе J2EE.

Управление данными

Архитектуры, основанные на службах данных

Архитектуры, основанные на службах данных (Data Service Architectures), представляют собой способ организации доступа к данным, в котором их местоположение, способ хранения и механизм доставки скрыты от конечного пользователя. Подобная стратегия доступа к данным представляет собой разновидность архитектуры, ориентированной на сервисы (Service Oriented Architecture), причем подавляющее большинство производителей СУБД и ПО промежуточного слоя, например Business Objects, IBM и Oracle, уже объявили о своих стратегических планах по развитию данного направления.

 

Хранилища данных бизнес-приложений

Хранилища данных бизнес-приложений (Business Application Data Warehouses) представляют собой средства бизнес-анализа и хранения необходимых для его осуществления данных, встроенные в бизнес-приложения или предлагаемые производителями бизнес-приложений в качестве отдельного модуля. Как правило, подобные модули включают средства извлечения данных из оперативных БД, готовые модели данных для создания хранилищ, предварительно настроенные шаблоны отчетов, готовые запросы, OLAP-кубы, ключевые показатели результативности, бизнес-правила и алгоритмы выполнения бизнес-процессов. В 2007 году было проведено немало проектoв внедрения подобных хранилищ, в основном входящих в состав бизнес-приложений SAP и Oracle.

Linux как платформа для СУБД

Linux как платформа для СУБД используется достаточно давно, но в последнее время интерес к подобному применению этой платформы значительно возрос благодаря серьезным вложениям в него со стороны производителей СУБД (таких как Oracle и Teradata) и поставщиков аппаратно-программных решений (таких как Dell, HP, IBM), выразившихся в появлении на рынке широкого спектра протестированных и сертифицированных серверных конфигураций на основе Linux для конкретных СУБД. Одной из основных причин использования Linux как платформы для СУБД является относительно невысокая совокупная стоимость владения подобными серверами по сравнению с Windows- и UNIX-платформами.

Управление информационными активами предприятия

Управление информационными активами предприятия (Enterprise Information Management) представляет собой структурирование, описание и сопровождение информации, принадлежащей компании независимо от технологической реализации ее хранения с целью повышения эффективности деятельности компании.

Сегодня многие компании испытывают проблемы с поиском и применением уже имеющейся у них информации, и это крайне негативно отражается на эффективности их работы. Отметим, что хотя производители программного обеспечения нередко используют термин «управление информационными активами предприятия» в маркетинговых целях, но реальное осуществление подобного управления требует не столько внедрения какого-либо продукта, сколько выполнения комплекса мероприятий и создания и соблюдения определенных правил (что не исключает, тем не менее, применения каких-либо продуктов и технологий).

Управление информационным наполнением

Управление информационным наполнением (Enterprise Content Management, ECM) — это комплекс мероприятий, направленный на организацию хранения, доступа и применения неструктурированного информационного наполнения (документов, изображений, мультимедиаданных, форм и т.д.). Для решения подобных задач на рынке имеется большое количество инструментов, однако их внедрение обычно сопряжено с организационными сложностями, такими как конфликты интересов разных потребителей контента, проблемы с правами на те или иные данные, а также проблемы организации соответствующей инфраструктуры.

Средства повышения эффективности работы и поддержки принятия решений

Технологии поиска в медиаданных

Поиск в медиаданных (Rich-Media Search) предполагает индексирование аудио- и видеоданных, доступных в Интернете, в базах данных, файловой системе либо с применением специальных, связанных с этими данными тэгов, либо с помощью анализа самих данных. Пока используемые для решения этой задачи технологии недостаточно развиты, однако в некоторые из них, такие как распознавание речи, поиск субтитров в видеоданных, поиск в web-страницах, вкладываются немалые средства, поскольку данные технологии могут стать факторами успеха поисковых и мультимедийных порталов.

 

Открытые форматы офисных документов (Open XML, OpenDocument)

Office Open XML File Formats (OOXML) — открытая спецификация формата документов, основанного на применении XML и используемого в приложениях семейства Microsoft Office 2007. Open Document Format for Office Applications (стандарт ISO/IEC 26300) — это открытая спецификация формата офисных документов, разработанная сообществом OpenOffice.org. В настоящее время рядом компаний, включая Microsoft и Novell, ведутся работы по обеспечению совместимости форматов и созданию конверторов между форматами. Влияние указанных спецификаций на дальнейшее развитие офисных приложений довольно высоко, и, учитывая огромную популярность Microsoft Office в нашей стране, в ближайшее время следует ожидать широкого распространения OOXML.

Офисные пакеты на основе Web 2.0

Офисные пакеты на основе Web 2.0 (Web 2.0 Office Productivity Suites) — это наборы приложений для решения таких задач, как подготовка документов, работа с электронными таблицами, создание презентаций, организация коллективной работы и обмена почтовыми сообщениями. Обычно для этой цели применяются настольные приложения, такие как продукты семейств Microsoft Office, Corel WordPerfect и OpenOffice.org. Пакеты на основе Web 2.0 представляют собой веб-приложения, обеспечивающие сходную функциональность. Подобные приложения стали доступны в течение последних нескольких месяцев; впрочем, на данный момент они отнюдь не дублируют функциональность настольных офисных приложений, а скорее позволяют решать более узкие задачи. Одна из самых популярных реализаций данной технологии — Google Apps Premium Edition (GAPE).

 

Google Apps Premium Edition — календарь

Хотя указанные технологии приобретают определенную популярность, не стоит ожидать вытеснения ими настольных приложений еще как минимум в течение нескольких лет.

Платформы для бизнес-анализа

Платформы для бизнес-анализа (Business Intelligence Platforms) представляют собой основу для построения аналитических приложений, включающих онлайновую аналитическую обработку данных, их анализ, представление результатов анализа в виде отчетов и информационных панелей, интеграцию с другими приложениями. Сегодня на рынке доступны платформы бизнес-анализа многих известных производителей, таких как Business Objects, Hyperion, Microsoft, Oracle, SAP и SAS, а также множество решений на их основе для различных отраслей, однако эта область продолжает быстро развиваться под влиянием новых технологий и концепций.

 

Платформа бизнес-анализа на основе аналитических служб
SQL Server 2005

Excel как клиентская часть аналитических приложений

Будучи одним из самых популярных офисных приложений, Excel сегодня привлекает пристальное внимание производителей средств и платформ бизнес-анализа как универсальное клиентское средство представления и анализа данных. Большинство поставщиков подобных платформ предоставляют дополнительные модули для Excel, предназначенные для отображения и анализа данных, доступных с помощью этих платформ.

 

Excel как клиентская часть аналитического приложения на основе
SQL Server 2005

Выход Excel 2007, появление служб Excel Services, а также выход средства анализа данных PerformancePoint Server во многом способствовали росту применения Excel как составной части аналитических решений и качественного изменения принципов анализа данных во многих компаниях.

Программное обеспечение для информационной безопасности

Управление цифровыми правами

Управление цифровыми правами в корпоративном секторе (Digital Rights Management, DRM) — это предотвращение неавторизованного доступа к данным, содержащимся в документах, путем запрета их просмотра, копирования, редактирования, печати и отправки по электронной почте. Подобные технологии стали доступны в 2003 году, после появления их первых реализаций от Microsoft и Adobe. Сегодня службы Microsoft Rights Management Services поддерживаются операционными системами Windows Server 2003, Windows XP Professional и Windows Vista. Тем не менее пока применение подобных технологий в корпоративном секторе не очень распространено, и, согласно прогнозам ряда аналитических компаний, в ближайшие пять лет не следует ожидать их активного массового использования.

 

Управление цифровыми правами на рынке приложений для домашнего применения заключается в запрете на неавторизованное использование данных, защищенных авторскими правами (таких как музыкальные произведения, книги и журналы). В отличие от корпоративного сектора, на рынке приложений для домашних пользователей подобные технологии (такие, например, как FairPlay DRM от компании Apple, предназначенные для пользователей службы iTunes, а также технологии аналогичного назначения компаний Macrovision, Microsoft и Sony) применяются достаточно активно.

Управление идентификацией

Распределенное управление идентификацией (Federated Identity Management) позволяет использовать общие идентификационные данные для доступа к разным серверам, службам и доменам благодаря обмену идентификационными сведениями между ними. Сегодня, с появлением таких технологий, как Security Assertion Markup Language (SAML) и Active Directory Federation Services (ADFS), а также сходных по назначению технологий компаний Computer Associates, EMC, HP, IBM, Novell, Oracle и Sun Microsystems, к ним проявляют интерес многие компании, в особенности территориально распределенные предприятия с большим количеством удаленных пользователей или с подразделениями, способными функционировать самостоятельно. В последнее время также наблюдается тенденция аутсорсинга служб управления идентификацией.

Доступ с помощью единой «точки входа»

Доступ с помощью единой «точки входа» (Enterprise Single Sign-On) — это возможность доступа к различным информационным системам, ресурсам и приложениям путем однократной идентификации. Средства обеспечения подобного доступа применяются довольно активно, поскольку во многих компаниях они существенно уменьшают стоимость обслуживания пользователей за счет снижения количества обращений в службы технической поддержки, а также повышают эффективность работы самих пользователей. Тем не менее в ряде случаев использование подобных средств может создать проблемы с обеспечением безопасности.

Мониторинг и предотвращение активности приложений

Технологии мониторинга и предотвращения активности приложений (Application Activity Monitoring and Prevention), такие как взаимодействие с пользователем, выполнение транзакций и т.д., предназначены для выявления и предотвращения подозрительных действий, не соответствующих политике безопасности. Эти технологии основаны на широко известных технологиях перехвата сетевого трафика, применяемых совместно с методами анализа, используемыми в ряде аналитических платформ. В настоящее время наблюдается бурный рост интереса к подобных технологиям, в первую очередь за счет активного рыночного спроса на них.

 

Средство мониторинга и предотвращения активности приложений
Internet Security Systems Proventia Server

Управление доступом к сети

Процесс управления доступом к сети (Network Access Control) предназначен для проверки состояния безопасности подключаемого к сети устройства и мониторинга уже подключенных устройств и генерации политик безопасности по отношению к устройствам на основе их состояния. Технология находится на этапе восхода надежд — уже есть первые промышленные ее реализации, такие как Cisco NAC, и в силу интереса к ней корпоративных заказчиков она может достичь пика завышенных ожиданий достаточно быстро.

 

Средство управления доступом к сети
Management Center for Cisco Security

Программное обеспечение с открытым кодом

Серверы приложений Java EE с открытым кодом (Open-Source Java EE Application Servers)

К серверам приложений Java EE с открытым кодом (Open-Source Java EE Application Servers) относятся серверы приложений, прошедшие тест на совместимость с требованиями спецификации Java 2 Enterprise Edition и распространяемые по лицензии OpenSource. В настоящий момент эти серверы представляют собой достаточно серьезную альтернативу коммерческим серверным платформам — как поддерживающим спецификацию J2EE, так и основанным на других технологиях, таким как Microsoft .NET, Zend PHP и Adobe ColdFusion. Из серверов приложений Java EE с открытым кодом сегодня широко применяются Red Hat JBoss и Apache Tomcat, однако это не единственные доступные продукты подобного класса.

 

Серверные операционные системы с открытым кодом

Серверные операционные системы с открытым кодом представляют собой свободно распространяемое программное обеспечение, вследствие доступности исходного кода постоянно совершенствуемое сообществом разработчиков. Из наиболее известных операционных систем подобного класса следует отметить GNU/Linux (дистрибутивы компаний Red Hat, Novell, Oracle, Ubuntu и ряда других производителей), FreeBSD, OpenSolaris, OpenBSD и NetBSD. Благодаря участию в создании и поддержке подобных операционных систем лидеров рынка программного обеспечения, таких как Novell, Oracle, HP, IBM, SGI и Unisys, они сейчас широко применяются в качестве серверных платформ для кластерных СУБД, веб-приложений, корпоративных серверов приложений и файловых серверов на различных аппаратных платформах. По данным Gartner Group, 80% крупных компаний (от тысячи сотрудников) применяют ПО с открытым кодом, и во многих случаях это именно серверные операционные системы.

Linux как серверная платформа

Linux представляет собой одну из самых популярных операционных систем с открытым кодом. Во многих компаниях она используется в качестве файловых серверов и серверов печати как альтернатива NetWare или Windows. Помимо этого Linux нередко применяется как платформа для серверных СУБД, веб-приложений, J2EE-решений, в том числе для приложений с высокими требованиями к надежности и доступности — возможность подобного применения, в том числе на кластерах серверов, подтверждается многочисленными результатами независимого тестирования.

Linux как корпоративная настольная ОС

Будучи весьма популярной в качестве серверной платформы, Linux как настольная ОС используется редко. Тем не менее низкая совокупная стоимость владения рабочими местами на основе Linux может сделать эту платформу привлекательной в тех случаях, когда потребность в применении Windows-приложений на рабочих местах пользователей ограничена, а необходимость миграции с Windows-платформ отсутствует (например, для автоматизации ранее не автоматизированной деятельности).

 

SuSE Linux 10 (Novell)

Средства разработки с открытым кодом (Open-source application development tools)

Средства разработки с открытым кодом, а именно инструменты для проектирования, создания, тестирования и отладки приложений, существуют уже много лет. Однако если несколько лет назад подобные средства в основном представляли собой инструменты для решения небольших специализированных задач (компиляторы, отладчики…), то сегодня среди подобных инструментов есть комплексные среды разработки, не уступающие по своим возможностям коммерческим продуктам.

 

Среда разработки Eclipse

Наибольшее влияние на развитие рынка подобных инструментов оказал проект Eclipse, результатом которого стала расширяемая многофункциональная среда разработки для создания распределенных приложений, используемая не только разработчиками, но и многими производителями коммерческих инструментов в качестве основы для их продуктов.

Помимо Eclipse, из средств разработки с открытым кодом популярна также среда NetBeans. Отметим, однако, что средства моделирования и тестирования с открытым кодом пока еще не столь развиты, как средства создания приложений.

Управление предоставлением ИТ-услуг

Такая область как управление предоставлением ИТ-услуг, включает методологии подобного управления, а также программное обеспечение для его поддержки. ITIL и CobiT, например, по сути представляют собой не что иное, как наборы рекомендаций, планов действий и организационных мер. Однако актуальность их достаточно высока за счет неплохих эффектов от внедрения и применения во многих компаниях.

 

CobiT

Control Objectives for Information and Related Technology (CobiT) — набор процессов для формирования целей ИТ и аудита ИТ-услуг для проверки их соответствия требованиям компании. Позволяет сформировать критерии оценки эффективности оказания ИТ-услуг и деятельности ИТ-подразделений и внешних компаний, оказывающих ИТ-услуги, применительно к достижению целей основного бизнеса компании.

Information Technology Infrastructure Library

Information Technology Infrastructure Library (ITIL) — библиотека передового опыта оказания ИТ-услуг, содержащая подробное описание наиболее важных процессов и видов деятельности в работе ИТ-подразделения, а также полный перечень сфер ответственности, задач, процедур, описаний процессов и списков действий, которые могут быть адаптированы для любой организации.

 

Процессы ITIL

Рекомендации ITIL применяются во многих крупных компаниях, поскольку позволяют упорядочить и формализовать взаимодействие между поставщиками и потребителями ИТ-услуг. Впрочем, пик интереса к ITIL уже прошел, и данное направление движется к впадине разочарований. Причиной тому является то, что рекомендации ITIL уже учтены во многих продуктах для управления ИТ-инфраструктурой (HP OpenView, IBM Tivoli и других) и именно к реализациям идей ITIL и конкретным проектам внедрения подобного ПО интерес заказчиков оказывается намного выше, нежели к самой библиотеке ITIL.

Средства управления портфелями ИТ-услуг

Средства управления портфелями ИТ-услуг (IT Service Portfolio Management Tools) предназначены для каталогизации стандартизованных ИТ-услуг и поддерживающих их архитектур, контрактов с поставщиками ИТ-услуг, автоматизации потоков работ, связанных с их предоставлением. Кроме того, они могут включать функциональность средств управления информационными активами и средств категории Service Desk. Рост интереса к подобным средствам обусловлен тем, что в условиях роста популярности аутсорсинга ИТ-услуг данная категория ПО, будучи еще одной реализацией идей ITIL, позволит обеспечить поддержку процессов ITIL, не требуя внедрения избыточных и дорогостоящих решений по управлению всей инфраструктурой, что может оказаться интересным для широкого круга компаний, не работающих в ИТ-сфере и не имеющих собственной развитой ИТ-инфраструктуры, но пользующихся ИТ-услугами других организаций.

Управление приложениями

Управление приложениями (Application Management) — это управление производительностью, доступностью, конфигурациями приложений, основанных на различных технологиях и платформах. Рост интереса к данному виду инфраструктурного ПО обусловлен усложнением ИТ-инфраструктуры многих компаний и возросшими требованиями к его поддержке, своевременному обновлению, безопасности и совместимости различных компонентов. На данный момент имеется достаточное количество решений подобного класса от HP, IBM, Microsoft, BMC и других компаний и пик интереса к ним уже не за горами.

Web-технологии

Web-технологии — одно из самых быстроразвивающихся семейств технологий со стремительно расширяющейся сферой применения. Из наиболее интересных в плане влияния на всю индустрию web-технологий из области корпоративного ПО следует назвать ряд идей под общим названием AJAX, относящихся к области создания веб-приложений, а также продукты для разработки корпоративных веб-решений путем внедрения готовых приложений для создания корпоративных и интернет-порталов.

 

AJAX

AJAX (Asynchronous JavaScript and XML) — это принцип создания веб-приложений, заключающийся в том, что нет необходимости в полной перезагрузке веб-страницы в ответ на каждое действие пользователя — с веб-сервера догружаются только нужные пользователю данные. Этот принцип реализуется путем генерации на сервере динамического HTML и соответствующего кода на скриптовых языках для выполнения в клиентском приложении с помощью большинства доступных сегодня серверных технологий (PHP, ASP .NET 2.0, Ruby on Rails и пр.).

Mashup

Mashup — это интеграция информации, полученной из разных источников, с помощью простых, быстро создаваемых приложений, основанных на клиентских или серверных веб-технологиях. Подобный способ создания приложений позволяет значительно снизить стоимость разработки веб-приложений за счет применения уже готовых сервисов, доступных на рынке онлайновых услуг (таких как Google Maps или сходные по назначению отечественные сервисы, оглавления новостных сайтов, сведения о курсах валют).

 

Пример использования Mashup

Хотя подобные приложения находятся в зависимости от надежности используемых в них компонентов и сервисов, интерес к ним быстро растет и в ближайшие годы следует ожидать широкого применения подобных технологий, в том числе с использованием средств персонализации, а также роста количества повторно применяемых сервисов.

Корпоративные порталы

Портал — это набор инфраструктурных веб-приложений для персонализированного доступа к информационным активам предприятия (данным, документам, бизнес-приложениям). Это направление находится в стадии подъема жизнестойкости — будучи популярным на рынке корпоративного ПО уже несколько лет, оно неуклонно движется к плато продуктивности за счет того, что корпоративные порталы сегодня внедряют даже небольшие компании, а на рынке ПО предлагается много разнообразных решений для их быстрого развертывания, а также имеется достаточно поставщиков соответствующих услуг.

Управление информационным наполнением веб-сайтов

Управление информационным наполнением веб-сайтов (Web Content Management) осуществляется с помощью специализированных средств. В большинстве случаев средства управления информационным наполнением веб-сайтов и веб-порталов позволяют осуществлять централизованное управление хранимыми данными (чаще всего — фрагментами документов), их изменением, отделение содержания от представления (то есть от дизайна сайта), автоматизацию управления жизненным циклом данных и связанных с ними потоками работ, применение их разными пользователями для решения различных задач.

Web 2.0

Технология Web 2.0 миновала пик завышенных ожиданий. Появление этого термина связывают со статьей «Что такое Web 2.0» (“What Is Web 2.0”) Тима О’Рейлли, опубликованной 30 сентября 2005 года, в которой появление большого числа сайтов, объединенных некоторыми общими принципами, было связано с общей тенденцией развития интернет-сообщества — это явление и получило название Web 2.0.

Данный термин использовался и ранее, например в 1995 году компания Silicon Graphics назвала термином Second Web «следующую ступень развития web, который станет экспериментальным, интерактивным и трехмерным и привлечет аудиторию во много раз большую, чем сегодняшний Web».

В современном понимании термина на первое место выносится его социальная составляющая, позволяющая генерировать и распространять web-контент на базе открытого децентрализованного взаимодействия в Сети, основанного на правах совместного использования контента. Примером подобного сервиса может служить энциклопедия Википедия, в которой каждый может поправить энциклопедическую статью, если имеет о предмете более достоверные или свежие сведения. Очевидно, что подобные сервисы работают тем лучше, чем больше пользователей принимает участие в проекте. Социальный феномен лежит в основе целого ряда проектов, которые относятся к классу Web 2.0, таких как службы социальных закладок, коллективные новости и т.п.

Несмотря на то что не существует четкого перечня признаков, по которым сайт можно отнести к классу Web 2.0, в большинстве публикаций понятие Web 2.0 наделяют следующими особенностями:

  • Web как платформа;
  • программное обеспечение как сервис;
  • радикальная децентрализация;
  • данные как движущая сила развития;
  • масштабируемость в широких пределах;
  • право пользователей на ремикс;
  • работа по принципу самообслуживания;
  • сетевой эффект, основанный на архитектуре участия;
  • доверие к участникам сообщества;
  • инновация за счет коллективного разума независимых участников;
  • ПО для большого спектра устройств;
  • более структурированный контент, использующий глубокие ссылки.

Наряду с вышеперечисленными параметрами, которые преподносятся как достоинства, следует отметить недостатки:

  • необходимость постоянного соединения с Сетью;
  • зависимость от компетентности и порядочности большого числа участников сервиса;
  • завязанность на решениях сторонних компаний;
  • уязвимость конфиденциальных данных, хранимых на сторонних серверах.

В ряде источников под термином Web 2.0 понимают также некоторый общий стиль оформления сайтов Web 2.0, предполагающий использование закругленных углов градиентных заливок, решетчатых фонов, больших шрифтов, стикеров и эффекта мокрого пола. При этом очевидно, что дизайн является вторичным (не определяющим) признаком принадлежности сайта к классу ресурсов Web 2.0.

Фолксономия

Фолксономия на графической модели Hype Cycle находится рядом с Web 2.0, и это не случайно: она является одной из технологий, формирующих концепцию Web 2.0.

Слово «фолксономия» (от англ. folk — народный + taxonomy — таксономия) в некоторых источниках переводится как «народная классификация» и означает практику совместной категоризации посредством выбора ключевых слов. Спонтанное сотрудничество группы людей с целью организации информации в категории.

Данный термин используется как омоним таксономии — фасетной классификации. Фолксономия имеет место в неиерархических сообществах, таких как общедоступные веб-сайты. Поскольку организаторы информации обычно являются ее же основными пользователями, фолксономия дает результаты, более точно отражающие совокупную концептуальную модель информации группы.

Примером фолксономической организации контента можно считать «облако тэгов» — представленные в произвольном порядке ключевые слова, размер шрифта которых тем больше, чем чаще они встречаются. Народная классификация производится участниками социального сервиса, при этом заранее не известно, какой тэг или какое название статьи выживет, привлечет наибольшее внимание и станет общепринятым.

В качестве ресурсов, где используются облака тэгов, можно назвать социальную службу закладок del.icio.us и фотоблог Flickr.

Анализ социальных сетей

Анализ социальных сетей (Social network analysis, SNA) — направление современной компьютерной социологии, которое занимается описанием и анализом возникающих в ходе социального взаимодействия и коммуникации связей (сетей). Поведение личности объясняется как производное от социальных сетей, элементами которых она выступает. Метод SNA получил широкое распространение при изучении процессов коммуникации в различных социальных группах, в развитии научных школ, социологии межличностных отношений, политических и международных процессов и т.д.

Сеть социальных взаимодействий — это сеть, состоящая из так называемых социальных акторов и наборов взаимосвязей между ними. Метод исследования является довольно универсальным. В качестве социальных акторов могут выступать не только индивиды, но и социальные группы, организации, города, страны. Под связями понимаются не только коммуникационные взаимодействия между акторами, но и обмен различными ресурсами, совместная деятельность, включая конфликты. Главная роль при использовании метода SNA отводится описанию характеристик, выражающих плотность, интенсивность и пространственную координацию социальных связей, что дает возможность выделять структурные единицы исследования («узлы», «блоки», «клики», «кусты») в системе социальных отношений.

Полученная сеть взаимодействий может быть проанализирована различными методами теории графов, теории информации и математической статистики. В отличие от классических методов анализа, которые позволяют изучить индивидуальные свойства объектов, основные цели анализа сетей — это исследование взаимодействия между социальными объектами (акторами) и выявление условий их возникновения.

Отдельным направлением исследования является визуализация — графическое отображение социальной сети. Она имеет важное значение, поскольку отображение сети позволяет сделать важные выводы о характере взаимодействия акторов, даже не прибегая к другим методам Web 2.0 анализа графа.

Электронные дисплеи

Дисплеи, проецирующие изображение на сетчатку глаза

Аппараты, позволяющие при помощи лазерного луча малой мощности проецировать изображение непосредственно на сетчатку глаза (Virtual Retinal Display, VRD), являются одним из перспективных направлений развития электронных дисплеев, особенно применительно к использованию в мобильных устройствах. Благодаря небольшим размерам и отсутствию громоздкого экрана, VRD-проектор можно встраивать в одежду и специальную экипировку (очки, шлемы и т.д.). Кроме того, важным преимуществом данной технологии является возможность проецировать изображение, угловые размеры которого практически целиком охватывают угол зрения.

 

Изображение в VRD-устройствах формируется последовательно (пиксел за пикселом) при помощи устройства развертки: луч лазера с большой скоростью «прорисовывает» строки пикселов изображения аналогично тому, как это происходит в лазерном принтере. Один из первых прототипов монохромного VRD-дисплея был создан сотрудниками лаборатории пользовательского интерфейса Вашингтонского университета в 1991 году.

На современном этапе технически возможно создание VRD-дисплеев, проецирующих монохромные и цветные изображения с разрешающей способностью порядка 800x600 пикселов. Для формирования цветного изображения используются три лазера (красный, зеленый и синий), лучи которых совмещаются при помощи специальной оптической системы. В настоящее время модули VRD-дисплеев, в которых применяются полупроводниковые лазеры и устройство развертки с микроэлектромеханическим приводом (MEMS), выпускает компания Microvision.

По мнению экспертов, полноценное применение данной технологии в коммерческих устройствах станет возможным при достижении уровня разрешающей способности порядка 4000x3000-8000x6000 пикселов.

 

Принцип работы цветного VRD-дисплея

Размеры модуля VRD-дисплея позволяют встраивать его в очки

OLED- и LEP-дисплеи

OLED и LEP — родственные технологии, позволяющие создавать излучающие электронные дисплеи на базе люминесцирующих материалов.

OLED (Organic Light Emitting Diode) — это светодиоды на основе органических материалов. Первыми проводить исследования в данной области начали в конце 80-х годов прошлого века сотрудники компании Eastman Kodak.

LEP (Light Emitting Polymer) — это светоизлучающие полимеры, впервые синтезированные учеными Кембриджского университета. Впоследствии разработками в данном направлении стала заниматься компания Cambridge Display Technology.

 

Схема устройства OLED-дисплея

Принципиальное отличие OLED- и LEP-дисплеев от устройств на базе ЖК-технологии заключается в использовании органических веществ, излучающих свет под воздействием электрического поля (в ЖК-дисплеях свет, излучаемый лампой подсветки, проходит через ячейки ЖК-матрицы и светофильтры). Благодаря этой особенности в OLED- и LEP-дисплеях нет необходимости применять лампу подсветки, поляризующие пленки и ряд других компонентов, являющихся обязательными элементами ЖК-устройств. За счет более простой структуры OLED-дисплеи можно сделать чрезвычайно тонким и легкими. Кроме того, они могут работать от меньшего (по сравнению с ЖК-панелями) напряжения, обладают низким уровнем энергопотребления и выделяют незначительное количество тепла.

 

Прототип 40-дюймового OLED-дисплея,
созданного инженерами Samsung Electronics

По качеству изображения OLED-технология также превосходит ЖК, обеспечивая более высокие яркость и контрастность, а также очень большой эффективный угол обзора (до 180° как в горизонтальной, так и в вертикальной плоскости) без заметных искажений цветопередачи. При этом полноцветные OLED-дисплеи имеют цветовой охват на уровне хороших ЭЛТ-мониторов и обеспечивают значительно более точное воспроизведение цветов, чем современные модели ЖК-мониторов.

Использование люминесцирующих материалов позволит в перспективе сделать апертуру пиксела OLED-дисплея практически равной 1 (то есть эффективная площадь пиксела будет равна его полной площади), что в принципе невозможно в случае ЖК-технологии. Дополнительным преимуществом OLED-дисплеев является чрезвычайно малое время реакции пикселов (у существующих прототипов — порядка десятков микросекунд), причем практически не зависящее от температуры (в отличие от ЖК-дисплеев, OLED- и LEP-устройства не «замерзают» при низкой температуре).

OLED-технология особенно привлекательна для создания дисплеев небольшого размера, поскольку имеет значительно более высокий (по сравнению с ЖК) потенциал для увеличения разрешающей способности (на нынешнем этапе — до нескольких сотен пикселов на дюйм).

В настоящее время на базе технологий OLED и LEP технически возможно создание монохромных, многоцветных и полноцветных дисплеев с активной либо пассивной матрицей.

У OLED- и LEP-дисплеев есть ряд недостатков, которые пока ограничивают сферу их применения в серийно выпускаемых устройствах. В частности, органические молекулярные и полимерные светоизлучающие материалы быстро разрушаются под воздействием содержащегося в воздухе кислорода и водяных паров, поэтому для обеспечения приемлемой (с точки зрения коммерческого использования) долговечности необходима полная герметизация начинки дисплейной панели. Кроме того, органические светоизлучающие материалы постепенно деградируют в процессе работы — это проявляется в уменьшении их эффективности (падении яркости при заданном напряжении питания) и изменении спектральных характеристик. Одним из наиболее актуальных на данный момент направлений работы в области совершенствования OLED- и LEP-дисплеев является создание более долговечных излучающих материалов.

Работы в области создания и производства OLED- и LEP-дисплеев, а также оптимизации характеристик органических светоизлучающих материалов в настоящее время ведут компании Cambridge Display Technologies (CDT), DuPont, Eastman Kodak, LG Electronics, Philips, Pioneer, RiTdisplay, Samsung SDI, Sanyo Epson Imaging Device Corporation, Sony, Toshiba и Universal Display Corporation.

В настоящее время OLED- и LEP-дисплеи находятся на начальной стадии коммерциализации. Начиная с 2002 года в ряде серийно выпускаемых устройств (цифровых индикаторах, автомагнитолах, портативных медиаплеерах, сотовых телефонах и пр.) применяются OLED- и LEP-дисплеи с небольшим размером экрана. OLED-дисплеи с большим размером экрана (до 40 дюймов по диагонали) пока существуют только в виде экспериментальных и выставочных прототипов. Ожидается, что серийные модели дисплейных панелей и телевизоров на базе OLED с размером экрана до 20 дюймов по диагонали появятся в продаже в 2009-2010 годах, а устройства с экраном более 30 дюймов — в 2011-2012 годах.

3D-дисплеи на базе ЖК

К настоящему моменту разработано несколько технологий производства дисплеев, создающих у пользователя правдоподобную иллюзию объемного (трехмерного) цветного изображения без применения вспомогательных средств (очков и пр.).

Нужного эффекта можно достичь, оснастив обычный ЖК-дисплей так называемым параллакс-барьером (например, пленкой с чередующимися непрозрачными вертикальными полосками и узкими прозрачными зазорами между ними). Если шаг полосок параллакс-барьера равен ширине двух пикселов, то при отклонении в одну сторону от осевой линии монитора наблюдатель сможет видеть только четные столбцы пикселов, а при отклонении в другую — нечетные. Изменяя расстояние между экраном монитора и параллакс-барьером, можно добиться того, чтобы правый глаз наблюдателя воспринимал изображение, сформированное нечетными столбцами пикселов, а левый — четными. Если вывести на экран такого монитора специальным образом подготовленную стереограмму (в которой будут через один перемежаться столбцы пикселов изображений левого и правого ракурсов), то у зрителя возникнет иллюзия трехмерности.

 

Принцип действия параллакс-барьера, расположенного с внешней
стороны дисплейной панели

Параллакс-барьер может быть как пассивным (пленка с непрозрачными полосками), так и активным элементом (монохромная ЖК-панель). В последнем случае монитор можно сделать универсальным: с выключенным параллакс-барьером он будет работать в обычном, двумерном режиме, а при активации параллакс-барьера — в трехмерном.

 

ЖК-мониторы, позволяющие воспроизводить
трехмерные изображения без применения
вспомогательных средств, уже есть в продаже

Несколько лет назад специалисты Philips Research Redhill разработали собственный вариант конструкции 3D-монитора на базе ЖК-панели, в котором вместо параллакс-барьера используется массив миниатюрных цилиндрических линз.

На данный момент 3D-дисплеи на базе ЖК-технологии находятся на начальной стадии коммерциализации. Решения, позволяющие пользователю наблюдать объемное цветное изображение без вспомогательных средств (специальных очков и т.п.), уже реализованы в ряде серийно выпускаемых ЖК-дисплеев NEC, Philips, Sharp и ряда других. Правда, сфера применения подобных устройств пока остается довольно ограниченной — они используются главным образом для показа рекламных материалов в крупных торговых центрах. Одной из основных проблем, препятствующих широкому распространению 3D-мониторов, является отсутствие простых в применении и при этом недорогих программных средств, позволяющих создавать изображения и видео в трехмерном виде.

 

Принцип действия активного параллакс-барьера между ЖК-панелью и лампой подсветки

В настоящее время исследования в области создания 3D-дисплеев на базе ЖК-технологии ведут компании Eastman Kodak, Hitachi, NEC, Philips, Samsung, Sanyo, Sharp и Toshiba.

Электронные чернила (e-ink)

Технология электронных чернил была разработана компаниями E Ink и Philips. В ходе многолетних исследований ученым удалось создать новый тип устройств визуализации информации — электрофоретические отражающие дисплеи. Такие устройства обладают оптическими и механическими характеристиками, схожими с обычной бумагой. Базовыми элементами электрофоретических дисплеев являются микрокапсулы, диаметр которых не превышает толщину человеческого волоса. Внутри каждой микрокапсулы находится большое количество пигментных частиц двух цветов: положительно заряженные белые и отрицательно заряженные черные, а все внутреннее пространство микрокапсулы заполнено вязкой прозрачной жидкостью.

 

Принцип работы электрофоретического отражающего дисплея

Слой микрокапсул расположен между двумя рядами взаимно перпендикулярных гибких электродов (сверху — прозрачных, снизу — непрозрачных), образующих адресную сетку. При подаче напряжения на два взаимно перпендикулярных электрода в точке их пересечения возникает электрическое поле, под действием которого в расположенной между ними микрокапсуле группируются пигментные частицы. Частицы с одним зарядом собираются в верхней части микрокапсулы, а с противоположным — в нижней. Для того чтобы поменять цвет точки экрана с белого на черный или наоборот, достаточно изменить полярность напряжения, поданного на соответствующую пару электродов. Таким образом, пиксел экрана, соответствующий данной микрокапсуле, окрасится в черный либо в белый цвет; при этом пигментные частицы, сгруппировавшиеся в верхней части микрокапсулы, скроют от наблюдателя все частицы, сосредоточенные в ее нижней части.

Дисплеи на базе электронных чернил способны сохранять изображение на экране даже при отсутствии электропитания (подача напряжения на управляющие электроды необходима лишь для переключения состояния пиксела), что наряду с отсутствием лампы подсветки обеспечивает очень низкий уровень энергопотребления. Такие дисплеи являются отражающими и обеспечивают хорошую читаемость изображения практически под любым углом и при любом освещении. В качестве подложки для создания дисплеев на основе электронных чернил можно использовать различные материалы: стекло, пластик, металлическую фольгу, ткань и даже бумагу. Уже созданы прототипы подобных дисплеев на гибкой подложке, способные сохранять работоспособность при сгибании и даже скручивании в рулон.

 

Так выглядит изображение на экране
электрофоретического дисплея

Основными недостатками дисплеев на базе электронных чернил являются большое время переключения пикселов (0,5-1 с) и ограниченное количество воспроизводимых оттенков (серийно выпускаемые модули позволяют отображать 4 либо 16 оттенков серого).

 

Прототип гибкого дисплея на базе электронных
чернил (фото Plastic Logic)

В настоящее время технология электронных чернил, позволяющая создавать монохромные отражающие дисплеи, находится на начальной стадии коммерциализации. Основной сферой применения подобных дисплеев являются устройства для чтения электронных книг, бюджетные модели аудиоплееров и мобильных телефонов, информационные табло в общественных местах (магазинах, вокзалах, остановках общественного транспорта и т.д.). На протяжении уже нескольких лет выпускаются устройства для чтения электронных книг, оснащенные дисплеями на базе электронных чернил компании E Ink (подробнее об этом можно прочитать в статье «Книги нового тысячелетия»). Есть примеры использования таких дисплеев и в других типах устройств. Так, в 2005 году компания Seiko выпустила наручные электронные часы, оснащенные дисплеем на базе электронных чернил, а в конце 2006-го компания Motorola представила первый мобильный телефон с подобным дисплеем (модель Motofone F3).

 

Устройство для чтения электронных книг
iRex iLiad, оснащенное отражающим электрофоретическим
дисплеем компании E Ink (фото iRex)

В настоящее время исследователи ведут работы по созданию цветных электрофоретических дисплеев, обладающих небольшим временем отклика. На протяжении последних лет было продемонстрировано несколько работающих прототипов подобных дисплейных панелей (в том числе и созданные на гибкой подложке), однако никакой информации о предполагаемых сроках их внедрения в серийно выпускаемых изделиях пока нет.

 

Наручные электронные часы Seiko, оснащенные дисплеем на базе электронных чернил
В мобильном телефоне Motorola Motofone F3 используется сегментный дисплей на базе электронных чернил (фото Motorola)

Дисплеи на базе бистабильных ЖК-структур (ChLCD и PABN LCD)

По мере роста популярности и многообразия портативных электронных устройств производители проявляют все больший интерес к дисплеям на базе бистабильных ЖК-структур. В отличие от традиционных ЖК-дисплеев, в таких устройствах используются микроструктуры, способные в течение длительного времени находиться в одном из двух устойчивых состояний даже при отсутствии внешнего электрического поля (отсюда и название «бистабильные»). В одном из этих состояний ячейка на основе жидкого кристалла пропускает свет, а в другом — нет. Переключение ячейки из одного состояния осуществляется посредством воздействия внешнего электрического поля, возникающего при подаче напряжения на пару управляющих электродов. Объединив множество бистабильных ячеек в двумерный массив, можно создать дисплей с очень высокой разрешающей способностью (порядка нескольких сотен и даже тысяч пикселов на дюйм).

 

Монохромная дисплейная панель ChLCD,
выпускаемая компанией LC-TEC Displays

По своим свойствам подобные дисплеи во многом схожи с описанными в предыдущем разделе устройствами на базе электронных чернил. Они обладают очень низким уровнем энергопотребления и способны сохранять изображение на экране при отключении питания. Как и в случае дисплеев на базе электронных чернил, существенным их недостатком является большое (порядка 1 с) время переключения состояния пиксела, что делает невозможным отображение видео. Используя бистабильные ЖК-структуры, можно создавать монохромные и цветные дисплеи — как оснащенные подсветкой, так и без нее.

 

Прототип цветного дисплея, созданного
по технологии PABN LCD специалистами одной
из лабораторий НР

Начиная с 1993 года работы в области создания дисплеев на базе холестерических жидких кристаллов (Cholesteric Liquid Crystal Display, ChLCD) ведет компания Kent Displays. Технология ChLCD позволяет создавать как монохромные, так и цветные дисплеи различных размеров. Разработкой и производством монохромных дисплейных панелей на базе бистабильных ЖК-структур занимается также шведская компания LC-TEC Displays.

Основная сфера применения монохромных дисплеев с использованием бистабильных ЖК-структур — портативные электронные устройства, а также информационные табло, вывески и т.д.

В настоящее время технология ChLCD находится в стадии коммерциализации — монохромные дисплеи данного типа используются в ряде серийно выпускаемых изделий. Например, во второй половине 2005 года компания A-Data выпустила портативные флэш-накопители, оснащенные небольшими монохромными дисплеями (на которых отображается имя диска и количество оставшегося свободного места), а в числе экспонатов CeBit 2006 была представлена даже SD-карта с дисплеем.

Развитием одной из разновидностей данной технологии, позволяющей создавать цветные дисплеи с высокой разрешающей способностью, занимается группа ученых расположенной в Бристоле (Великобритания) лаборатории НР. Данная технология, получившая название PABN LCD (Post-Aligned Bistable Nematic LCD), уже на нынешнем уровне развития позволяет создавать цветные дисплеи с разрешающей способностью порядка 200-400 ppi (что вполне сопоставимо с детальностью отпечатков цветных лазерных принтеров начального уровня).

Дисплеи на базе технологий SED, FED и NED

Группа из трех родственных технологий — FED (Field Emission Display), SED (Surface-conduction Electron-emitter Display) и NED (Nanotube Emissive Display) — является качественно новой ступенью развития дисплеев на базе электронно-лучевой трубки (ЭЛТ). Как и в случае ЭЛТ, изображение на экранах дисплеев перечисленных типов формируется за счет свечения люминофора, возбуждаемого потоком электронов. Правда, в отличие от ЭЛТ, оснащенной всего лишь тремя электронными пушками, лучи каждой из которых при помощи электромагнитной отклоняющей системы последовательно пробегают по строкам экрана, в SED-дисплеях применяются малогабаритные источники электронов (молибденовые конусы диаметром всего около 200 нм), массивы которых расположены в каждой из ячеек экрана. (В NED-устройствах в качестве источников электронов используются углеродные нанотрубки.)

 

Принцип работы SED-дисплея

Применение большого количества миниатюрных источников электронов позволяет сделать дисплеи значительно более тонкими, легкими и экономичными по сравнению с устройствами на базе ЭЛТ. При этом SED-, FED- и NED-дисплеи обладают многими достоинствами систем на базе ЭЛТ: высоким уровнем яркости и контрастности изображения, большим углом обзора, широким цветовым охватом и высокой точностью цветопередачи, а также незначительной инерционностью изображения.

Использование большого количества источников электронов (до нескольких тысяч на каждый пиксел) обеспечивает высокую надежность дисплейных панелей — в отличие от ЖК-мониторов, где выход из строя транзистора, управляющего одним из субпикселов, автоматически означает появление «мертвого» (или залипшего) пиксела на экране.

 

Прототип SED-дисплея Canon

Определенным недостатком дисплеев рассматриваемых типов является сложность (а следовательно, и дороговизна) их производства. По мнению экспертов, именно по этой причине выпуск таких устройств будет рентабельным лишь при изготовлении панелей с относительно большим размером экрана (50 дюймов и более).

В 2005 году компании Canon и Toshiba основали совместное предприятие для разработки и производства дисплейных панелей на базе технологии SED. В октябре 2006-го на конференции FPD International 2006 был продемонстрирован прототип 55-дюймовой SED-панели, имеющей разрешение Full HD и обеспечивающей контрастность изображения на уровне 100 000:1. Однако приступить выпуску SED-дисплеев в конце 2006 года (как это планировалось первоначально) по ряду причин не получилось. А в начале 2007 года стало известно, что Toshiba продала свою долю в совместном предприятии компании Canon. Представители Canon пока официально отрицают наличие технологических трудностей, препятствующих запуску серийного производства SED-дисплеев, но при этом отказываются назвать хотя бы приблизительные сроки их появления на рынке.

 

Прототип FED-дисплея

Между тем в конце 2006 года компания Sony и японский технологический фонд Technology Carve-out Investment Fund (TCI) основали предприятие Field Emission Technologies, основным направлением деятельности которого является разработка пригодных к коммерческой эксплуатации FED-дисплеев. Менее чем через год, на выставке CEATEC Japan 2007, представители Field Emission Technologies продемонстрировали работающий прототип 19-дюймового FED-дисплея, имеющего разрешающую способность 1280x960 пикселов и работающего с частотой регенерации 240 кадров в секунду (это позволяет устранить эффект мерцания, присущий телевизорам на базе ЭЛТ). По информации разработчиков, при одинаковой яркости энергопотребление FED-панели оказывается примерно втрое ниже по сравнению с ЖК-дисплеем, имеющим аналогичные размеры и разрешение экрана.

В настоящее время технологии SED и FED находятся на пороге коммерциализации, и вполне возможно, что первые серийные продукты поступят в продажу уже в 2008 году.

LCoS

Технология LCoS (Liquid Crystal on Silicon — жидкие кристаллы на кремнии) разработана для использования в проекционных устройствах. Центральной частью LCoS-устройства является ЖК-матрица (микродисплей), изготовленная на кремниевой подложке (на ней же расположены и управляющие работой ячеек транзисторы). Однако, в отличие от классической проекционной ЖК-технологии, в данном случае микродисплей работает на отражение. Благодаря этому LCoS-технология обеспечивает ряд преимуществ по сравнению с традиционной ЖК-технологией — в частности пикселы микродисплея LCoS характеризуются меньшим временем реакции, а за счет того, что транзисторы микродисплея расположены под ячейками субпикселов и не препятствуют прохождению света, и значительно большей апертурой.

 

Принцип работы проекционного устройства на базе LCoS

Исследованиями в области LCoS занимались несколько научных групп. Наибольших успехов в начале нынешнего десятилетия удалось достичь сотрудникам исследовательского отдела компании Philips. По мнению разработчиков, на базе технологии LCoS можно создавать недорогие и качественные проекционные устройства — мультимедиапроекторы и проекционные телевизоры. Таким образом, в перспективе LCoS вполне способна стать третьей силой на современном рынке мультимедиапроекторов и потеснить технологии, традиционно используемые в данном типе устройств (речь идет о DLP и 3LCD).

В 2003 году развитием и внедрением LCoS в коммерческие устройства всерьез заинтересовалась корпорация Intel. В январе 2004-го на выставке CES 2004 представители Intel объявили о намерении развивать эту технологию и в ближайшем будущем наладить серийное производство LCoS-чипов для проекционных телевизоров и мультимедиапроекторов. Спустя всего два месяца на весеннем форуме IDF были продемонстрированы работающие прототипы проекционных устройств на базе LCoS-чипов. Согласно первоначальному плану, начало серийного производства LCoS-чипов на мощностях компании Intel было намечено на вторую половину 2004 года. Однако в конце того же года Philips неожиданно объявила об уходе с рынка LCoS-чипов, свертывании всех исследовательских работ в данном направлении и прекращении выпуска соответствующих продуктов. Вскоре компания Intel также объявила о закрытии проекта по развитию технологии LCoS. После этих событий многие производители проекционных устройств утратили интерес к данной технологии, и на некоторое время она оказалась в тени.

 

Проектор JVC DLA-RS1, построенный
на базе технологии LCoS

Тем не менее компании Hitachi, Sony и JVC продолжили работу по развитию данной технологии и выпустили несколько серийных моделей проекционных устройств на базе LCoS. Преодолев определенные технические трудности, китайские компании TSMC и SMIC сумели наладить серийный выпуск больших партий LCoS-чипов.

В 2007 году Sony выпустила первые модели проекторов класса Full HD, построенные на базе технологии SXRD (Silicon X-tal Reflective Display), фактически являющейся фирменной интерпретацией LCoS. Так что в течение ближайших двух лет с большой вероятностью можно ожидать нового всплеска интереса к технологии LCoS и ее клонам. Тем более что сроки действия патентов на эту технологию истекли и теперь производителям не придется платить лицензионные отчисления за ее использование.

Пикопроекторы

Термин «пикопроекторы», введенный в обращение специалистами компании Texas Instruments (TI), обозначает миниатюрные проекционные устройства, которые могут быть использованы как для создания карманных мультимедиапроекторов, так и в качестве модулей, встраиваемых в мобильные устройства (сотовые телефоны, КПК, портативные цифровые медиаплееры и пр.). Значительный рост интереса разработчиков и производителей портативной техники к созданию пикопроекторов, пригодных для применения в серийно выпускаемых изделиях, обусловлен тенденциями развития данного сегмента рынка. В то время как физические размеры мобильных устройств неуклонно уменьшаются, набор заложенных в них функциональных возможностей с каждым годом расширяется. Вполне очевидно, что разместить в маленьком корпусе большой дисплей, который бы обеспечивал достаточно комфортную работу с современными мобильными приложениями, становится все сложнее. И неспроста разработчики обратили свои взоры на проекционные устройства — ведь именно это решение позволяет без особых проблем получать изображение, размеры которого во много раз превосходят габариты самого аппарата.

 

Прототип встраиваемого модуля пикопроектора,
созданный инженерами компании Microvision
на базе полупроводниковых лазеров
и микроэлектромеханической системы развертки
(фото Microvision)

По размеру существующие прототипы пикопроекторов не больше спичечного коробка, а низкий уровень энергопотребления позволяет использовать питание от автономных источников (аккумуляторов). В настоящее время уже создано несколько различных конструкций миниатюрных проекционных модулей, позволяющих формировать цветное изображение. В качестве источников света в пикопроекторах применяются яркие светодиоды или полупроводниковые лазеры, а роль модуляторов выполняют DMD-матрицы, ЖК-панели либо системы развертки с миниатюрным подвижным микрозеркалом.

 

Мобильные телефоны со встроенным проектором
могут появиться в продаже уже в 2009 году

Работы по созданию пикопроекторов и ключевых компонентов для них в настоящее время ведут компании Displaytech, Explay, Light Blue Optics, Microvision и Texas Instruments. Интересно отметить, что компания Microvision при создании своего лазерного пикопроектора использовала многие технические решения, изначально разработанные для VRD-дисплеев. В 2006-2007 годах на нескольких крупных международных выставках были продемонстрированы работающие прототипы пикопроекоторов (подробнее см. в публикации «Бум пикопроекторов»). В 2008 году ожидается появление первых прототипов мобильных устройств, оснащенных встроенными пикопроекторами. Согласно прогнозам аналитиков, серийно выпускаемые устройства со встроенными пикопроекторами появятся на рынке не ранее 2009 года.

Оптические накопители

Голографическая запись

В отличие от оптических дисков традиционной конструкции (CD, DVD и т.д.), голографические носители позволяют использовать для хранения данных всю толщину записывающего слоя. Если запись на дорожке CD- и DVD-дисков производится последовательно, бит за битом, в одном измерении, то голографическая технология позволяет применять все три измерения рабочего слоя носителя и осуществлять параллельное считывание или запись массива битов (так называемых страниц), сохраняемых в слое носителя в виде интерференционных картин (голограмм).

 

Использование данной технологии позволяет значительно увеличить как удельную емкость носителей, так и скорость чтения/записи. Существующие прототипы, работающие с дисковыми носителями, обеспечивают возможность записи нескольких сотен гигабайт данных на одном носителе диаметром 120-130 мм. Кроме того, на базе голографической технологии можно создавать накопители, работающие с компактными карточками емкостью от нескольких единиц до нескольких десятков гигабайт.

 

Запись данных в голографическом накопителе

В настоящее время технология голографической записи находится на начальной стадии коммерциализации. В минувшем году компания InPhase Technologies приступила к серийному производству системы хранения данных Tapestry 300r, созданной на базе голографического привода и предназначенной для использования в профессиональных вещательных студиях. Это устройство позволяет записывать данные на специальные WORM-диски емкостью 300 Гбайт — этого достаточно для хранения 35 ч видео вещательного качества (с потоком 19 Мбит/с). Максимальная скорость чтения и записи данных составляет 160 Мбит/с — таким образом, для заполнения одного носителя потребуется немногим более 4 ч. По данным производителя, долговечность носителей составляет не менее 50 лет.

 

Чтение данных в голографическом накопителе

Оптические накопители на базе голографической технологии записи, предназначенные для профессиональных цифровых видеозаписывающих систем, выпускает также японская компания Optware. При этом стоит отметить, что внедрение голографических накопителей в обычные ПК и бытовые устройства пока не планируется.

 

Чтение данных в голографическом накопителе

Видеопроигрыватели формата HD

В 2006 году в продаже появились первые серийные модели бытовых проигрывателей, позволяющие воспроизводить видеосигнал формата высокой четкости (Full HD) — 1920x1080 пикселов с прогрессивной разверткой. Речь идет главным образом об устройствах, созданных на базе оптических приводов с сине-фиолетовым лазером (форматы HD-DVD и Blu-ray Disc) и позволяющих воспроизводить видео с разрешением 720 и/или 1080 линий (с прогрессивной либо чересстрочной разверткой). Однако в настоящее время цены на подобные проигрыватели, а также на фильмы, записанные в формате высокой четкости, остаются слишком высокими, и это в значительной степени препятствует росту их популярности. В 2007 году в России наиболее доступным по цене устройством, поддерживающим воспроизведение видео с оптических носителей нового поколения, стала игровая консоль Sony PlayStation 3 (от 17 тыс. руб.). В то же время на рынке появилось немало моделей недорогих DVD-проигрывателей, оснащенных цифровым выходом (HDMI и/или DVI) и поддерживающих воспроизведение видеофайлов (MPEG, DivX и пр.), записанных в формате высокой четкости.

 

Для российских пользователей игровая консоль
Sony PlayStation 3 пока остается наиболее доступным
аппаратом, позволяющим воспроизводить фильмы
на носителях Blu-ray

В настоящее время спрос на видеопроигрыватели высокой четкости остается невысоким, что объясняется как большой стоимостью этих аппаратов, так и рядом других факторов — в частности продолжающимся соперничеством двух форматов (HD-DVD и Blu-ray Disc) и весьма скудным ассортиментом фильмов, записанных с высоким разрешением. Кроме того, многие издатели медиаконтента не спешат выпускать свою продукцию на носителях нового поколения, не будучи уверенными в будущем каждого из форматов.

 

Бытовой проигрыватель формата Blu-ray Disc

Сейчас уже можно не сомневаться в том, что через несколько лет видеопроигрыватели высокой четкости станут массовым продуктом, однако пока нет окончательной ясности относительно того, останутся ли актуальными оба ныне существующих формата или же один из них все-таки одержит верх над другим.

Многослойные оптические носители для приводов на базе красного лазера

Многослойные оптические носители HD VMD (High Definition Versatile Multilayer Disc) для систем на базе красного лазера, разработанные сотрудниками компании New Medium Enterprises (NME), являются альтернативой приводам на базе сине-фиолетого лазера (в частности, HD-DVD и Blu-ray Disc), обеспечивая сравнимую емкость диска при значительно меньшей стоимости считывающих устройств и ROM-носителей. Увеличение емкости оптического носителя в данном случае достигается за счет увеличения количества информационных слоев при сохранении такой же ширины дорожки и размера питов, как и в обычных DVD. Согласно информации разработчиков NME, созданная ими технология может формировать до 20 слоев в одном носителе, что дает возможность наращивать емкость до 100 Гбайт (по 5 Гбайт на слой). Стоит отметить, что для изготовления слоев ROM-носителей подходит технология инжекционного литья, широко используемая при промышленном тиражировании носителей CD-ROM и DVD-ROM.

 

Проигрыватели формата HD VMD могут составить
серьезную конкуренцию более дорогим устройствам
HD-DVD и Blu-ray Disc

В конце 2007 года в продаже появились первые серийные модели видеопроигрывателей формата HD VMD — ML622S и ML777S. Розничная цена младшей модели в странах ЕС составляет порядка 180 евро. Оба устройства оснащены цифровым интерфейсом HDMI и поддерживают воспроизведение видео с разрешением 1080 линий (с чересстрочной и прогрессивной разверткой) и битрейтом до 40 Мбит/с. Кроме того, предусмотрена возможность воспроизведения видео, а также звуковых и графических файлов с CD- и DVD-дисков (в том числе двухслойных).

В настоящее время представители компании NME договариваются об условиях выпуска видеопродукции на носителях HD VMD с ведущими издателями видеопродукции Австралии, Бразилии, ряда стран Центральной Европы и Скандинавии, Германии, Франции, Китая, Индии, России и США.

В перспективе NME планирует не только расширить модельный ряд бытовых видеопроигрывателей, но и выпустить привод формата HD VMD для ПК и несколько программных продуктов для просмотра и записи видео высокой четкости.

Интерфейсы «компьютер — человек»

Автоматизированный синхронный перевод (Speech-to-Speech Translation)

Автоматизация синхронного перевода — это одна из самых давних проблем в компьютерной индустрии, которая неизменно привлекает повышенное внимание со стороны как пользователей, так и разработчиков цифровых технологий. Когда-то писателям-фантастам возможность разговора с компьютером казалась столь очевидной и естественной, что первые вычислительные машины, лишенные голосового интерфейса, воспринимались как нечто неполноценное. Тем не менее решить эту задачу пока так и не удалось, но если год назад ее решение эксперты откладывали как минимум на десяток лет, то теперь в этом вопросе просматриваются более оптимистичные перспективы. Впрочем, на нашу страну этот оптимизм явно не распространяется, так что синхронных переводов на русский и/или с русского ожидать в обозримое время не приходится.

 

 

Можно выделить три различные области технологий, которые будут решать общую задачу перевода с одного разговорного языка на другой: достоверное распознавание живой речи, машинный перевод текста и синтез речи по тексту. Сегодня уже создано несколько локальных технологий, получивших практическое применение в различных областях. Пока более или менее сносно выполняется лишь последняя задача — роботизированная речь успешно используется во многих видах деятельности, хотя гораздо хуже воспринимается человеком, чем живая, особенно при передаче по каналам телефонной связи, то есть как раз там, где она сегодня наиболее востребована. Серьезный прогресс достигнут и в области машинного перевода, но до полного решения этой задачи пока еще далеко. Результаты работы над автоматическим распознаванием живой речи и преобразованием ее в текст еще скромнее — определенные сдвиги наблюдаются лишь в сфере распознавания с голоса специализированных текстов с ограниченным словарем (особенно это востребовано в таких областях, как медицинское обслуживание, помощь при чрезвычайных ситуациях, общение в транснациональных корпорациях или при привлечении иностранной рабочей силы).

Но, как ни печально, даже если все составляющие технологии синхронного перевода достигнут уровня промышленного использования (считается, что для этого достаточно точности в 95-98%), то задача в целом все равно не будет решена, поскольку получить верный перевод при интеграции всех этих технологий на практике не удастся даже при сносной работе каждой из них по отдельности. Сначала смысл исказится на этапе распознавания речи, затем свою погрешность внесет автоматизированный переводчик (причем работать он будет с уже искаженным текстом, так что не сможет выйти даже на достигнутую точность), а в результате робот бесстрастным голосом произнесет что-то уже совсем несуразное. Причем в настоящее время все эти задачи решаются различными, порой даже взаимоисключающими методами и алгоритмами, поэтому интеграция их в единое целое представляет собой отдельную проблему. Таким образом, данная технология остается уделом фантастики, однако в процессе работы над ней началось широкое практическое применение отдельных ее компонентов, таких, например, как распознавание голосовых команд в телефонах и синтез речи в справочных службах.

В то же время ограниченные узкой темой переводы сегодня уже входят в стадию коммерциализации.

Утверждается, что наибольших успехов в решении названных проблем (особенно в части интеграции технологий для решения общей задачи) достигли такие компании, как IBM и Spoken Translation.

Сенсорные ткани (Fabric Sensors)

Высокотехнологичная «начинка» изменяет сегодня свойства привычных тканей, используемых для изготовления одежды, обуви, сумок, и даже обивочных материалов. Причем направление новых исследований определяют не только теоретические возможности новых материалов, но и требования жизни. Например, новые законы в американском автомобилестроении заставили ученых искать ткани, которые за счет изменения давления могли бы сообщать автомобильному компьютеру, кто сидит в машине — ребенок или взрослый (это важно при срабатывании систем активной безопасности типа надувных подушек и шторок). Следующим этапом станет измерение сиденьем биофизических параметров водителя. Это позволит отслеживать его самочувствие и не допустит, например, управления автомобилем при повышенном утомлении, сонливости или в нетрезвом состоянии.

 

Гибкие клавиатуры из тканого материала,
выпускаемые компанией Elektex (фото Elektex)

Кевлар, разработанный в лабораториях компании «Дюпон» (крупнейшего в мире производителя синтетических материалов), сегодня предохраняет мотоциклистов от травм при падении, а следующие разработки этой компании со временем позволят одежде, сшитой из новых тканей, передавать сигналы о местонахождении и самочувствии одетого в нее человека, а в случае перелома формировать на его руке или ноге подобие гипсовой повязки.

В общем, нынешней синтетикой можно гордиться. На новых куртках вместе с внушительными ценниками — увесистые руководства, рассказывающие, из чего сделано их покрытие. Непромокаемое и одновременно «дышащее», легкое и прочное, тонкое, но при этом сберегающее тепло. На квадратном сантиметре ткани GoreTex умещаются полтора миллиарда пор — они позволяют телу человека «дышать», но не пропускают куда более крупные капли дождя. А «умные» ткани Polartec в два раза теплее, чем шерсть, но в них никогда не потеешь. Специалисты называют такие материалы «тканями переменной фазы».

 

Встраиваемые тактильные сенсоры в одежде
и аксессуарах уже стали реальностью (фото Elektex)

Но если одежда, заботящаяся о самочувствии и здоровье человека, находится еще на стадии разработки, то куртку со встроенным в рукав пультом управления портативным медиаплеером или мобильным телефоном можно приобрести уже сейчас. Одним из первых коммерческих продуктов из сенсорной ткани стали также гибкие клавиатуры из тканого материала, появившиеся в продаже несколько лет тому назад.

По мнению экспертов, в будущем сенсорные ткани найдут широкое применение в самых разных категориях изделий: спортивной одежде и аксессуарах, мобильных устройствах, автомобилях и т.д. Кроме того, большой интерес к данной технологии проявляют военные.

В настоящее время распространенность встраиваемых сенсоров невелика и составляет не более 1% целевой аудитории. Исследования в области технологий создания встраиваемых сенсоров ведут компании Eeonyx, Eleksen, Philips, Textronics и др.

Распознавание жестов (Gesture Recognition)

Системы распознавания жестов являются одним из способов реализации интерфейса для ввода информации и управляющих команд в ПК или иные устройства. Как правило, подобные системы включают аппаратные средства, преобразующие жесты в цифровой вид, и программные компоненты, собственно осуществляющие их распознавание.

Сегодня наиболее распространенными являются подобные системы, выполняющие распознавание жестов по графическому образу. В этом случае изображение с видеокамеры, подключенной к ПК, передается в специализированную программу, которая осуществляет поиск изображений рук (головы, тела и т.д.) пользователя и, сопоставляя их очертания с эталонными образами, хранящимися в базе данных, выполняет распознавание жестов. С каждым из эталонных образов может быть ассоциирована определенная команда (символ, последовательность символов и т.д.), которая при корректном распознавании соответствующего жеста передается операционной системе или определенному приложению. В зависимости от реализации программного компонента система распознавания жестов может быть настроена на восприятие движения рук, головы, глаз, губ и т.д. В бытовых электронных устройствах система распознавания жестов может быть реализована либо на программном уровне, либо на базе специализированного чипа (ASIC).

 

На протяжении уже нескольких лет технологии распознавания жестов по графическому образу используются в ряде специализированных программных продуктов, а также в некоторых компьютерных играх. Недавно компания Toshiba представила новый DVD-плеер, отличительной особенностью которого является возможность переключения режимов работы и вызова функций не нажатием кнопок, а определенными жестами рук. В данном устройстве используется новый процессор SpursEngine, который способен обрабатывать изображения жестов, фиксируемые цифровой камерой, и интерпретировать их в соответствующие команды. Максимальное расстояние, на котором система может распознать движения рук, составляет 3 м. Впрочем, эта модель все же пока является демонстрационной — дата выхода на рынок нового DVD-плеера неизвестна. Тем не менее рабочие модели подобных бытовых устройств уже экспонируются на выставках, а значит, можно ожидать их появления в продаже уже в самое ближайшее время. Если рассматривать серийно выпускаемые устройства, то несложные системы распознавания жестов имеются в игровой консоли Wii 3-D компании Nintendo и в мобильном телефоне Nokia 5500 Sport.

 

В мобильном телефоне Nokia 5500 Sport
реализована система распознавания жестов
(фото Nokia)

Хотя в течение нескольких ближайших лет можно ожидать увеличения количества моделей сотовых телефонов и других мобильных устройств, позволяющих использовать простые жесты для управления некоторыми функциями пользовательского интерфейса, о серьезном применении подобных технологий говорить еще рано. Как считают аналитики, в ближайшем будущем основными сферами применения данного решения будут игровые и развлекательные приложения, а также интерфейсы для людей с ограниченными физическими возможностями.

Существует и принципиально иной вариант воплощения данной технологии, позволяющий распознавать жесты по траектории движения. В этом случае аппаратная часть системы реализована в виде специальных манипуляторов, оснащенных датчиками ускорения (акселерометрами). При перемещении манипулятора датчики фиксируют направление и скорость его перемещения и передают эту информацию в компьютер. Программный компонент системы осуществляет распознавание жестов, анализируя траекторию движения.

По мнению ряда специалистов, в будущем системы распознавания жестов по траектории движения будут широко применяться в портативных электронных устройствах, дополняя такие более привычные устройства ввода, как клавиатура и сенсорный экран.

 

В мобильном телефоне
Samsung SCH-S310
имеется встроенная система распознавания
жестов по траектории движения

Данная технология находится на начальной стадии коммерциализации. В начале 2005 года компания Samsung Electronics выпустила мобильный телефон SCH-S310, оснащенный системой распознавания жестов по траектории движения. Эта функция позволяет осуществлять ввод цифр, а также нескольких часто используемых управляющих команд. Например, для того чтобы ввести какую-либо цифру, достаточно начертить ее в пространстве рукой, в которой находится телефон.

Распознавание речи для мобильных устройств

Распознавание речи в мобильных устройствах — это более локальная задача, чем универсальное распознавание речи, поэтому сегодня она решается довольно успешно. Особенно часто подобные технологии применяются для голосового управления функциями мобильных устройств в условиях ограниченного применения других интерфейсов.

 

Тем не менее даже возможности самых продвинутых современных мобильных устройств, которые обеспечивают независимое от говорящего распознавание речи (то есть пользователь не должен создавать собственные образцы команд) и предикативный набор (то есть система пытается по своей базе определить, какое слово или фразу вы пытаетесь произнести), ограниченны, и пользователь вынужден выбирать команды из предлагаемого не слишком обширного списка.

Однако такие системы получают все большее распространение, широко применяются для управления мобильными устройствами, а также при выборе программ, музыкальных фрагментов или видеоклипов и просто для ввода текста. Дальнейшее развитие и распространение подобных систем, безусловно, связывают с успехами в области распознавания живой речи. А пока эффективность их работы (даже многомодальных и не зависящих от голоса абонента) существенно зависит от фоновых шумов, объема предикативного словаря, ясности речи говорящего и, естественно, мощности обрабатывающего процессора (которая, впрочем, постоянно увеличивается). Кроме того, к развитию этих технологий может подтолкнуть необходимость идентификации пользователя для обеспечения безопасности там, где по каким-либо причинам неудобно использовать другие средства идентификации.

Наиболее успешно разработками в области распознавания речи для мобильных устройств занимаются в мире такие компании, как Conversay, Nuance Communications, Sensory, VoiceSignal и др.

Поиск на естественном языке

Как известно, запросы к поисковым системам обычно формулируются не на естественном, а на формализованном языке запросов, синтаксис и особенности которого зависят от конкретной поисковой системы.

Однако расширение аудитории интернет-пользователей заставляет разработчиков задумываться над созданием технологии поиска на естественных языках, при котором поисковая система не требовала бы формализации запроса, а понимала бы вопросы, заданные на обычном языке, и выдавала ответы, основанные на смысловом значении фраз, а не на отдельных ключевых словах. Причем эта технология в дальнейшем будет использоваться не только при введении текста запроса, но и при распознавании речи, то есть поиск можно будет осуществлять прямо с голоса (для этого потребуются такие же алгоритмы обработки и распознавания естественного языка, как и для систем машинного перевода).

 

К сожалению, оптимизма в отношении этой задачи с каждым годом становится все меньше и меньше, а технологии поиска на естественном языке очень далеки от применения. Кроме того, очевидные лидеры в области поисковых систем, такие как Google, Yahoo, Microsoft MSN и даже наш «Яндекс», заняты сегодня совершенно иными проблемами (повышением качества поиска при использовании существующих технологий, борьбой с мошенничеством, «накрутками» индексов PageRank, коммерческими ссылками и т.д.). А пока ведущие игроки этого рынка не обратят внимание на обработку естественного языка поисковых запросов, серьезных подвижек в этой области не будет и все это так и останется отдаленной мечтой. Так что надеяться на осмысленный ответ на запрос: «Почему мой компьютер не работает?» — в ближайшем будущем не приходится.

Над созданием поисковых систем на естественном языке сегодня работают такие мировые компании, как Attensity, Consona, IBM (iPhrase Technologies), InQuira, Progress Software и др.

Распознавание речи на ПК

В отличие от специализированных технологий для мобильных устройств, универсальные системы распознавания речи для ПК, благодаря большей мощности настольных компьютеров, способны более детально интерпретировать человеческую речь и переводить ее не только в ограниченный набор команд, но и в связный текст. В идеале компьютер должен воспринимать произносимые фразы и автоматически переводить их в текст, тем самым исключив необходимость привычного его набора на клавиатуре. Однако пока достаточно надежно использование таких систем реализовано, так же как и для мобильных компьютеров, лишь для управления некоторыми функциями интерфейса и выбором из предлагаемых вариантов.

 

Несмотря на серьезные трудности, успехи в распознавании речи все же достигнуты, хотя в основном они касаются только диктовки узкоспециализированных текстов (главным образом, технических, медицинских, юридических и всевозможной деловой переписки). Впрочем, широкого распространения подобные технологии пока не получили даже в тех областях, где разработчики добились заметного успеха. Например, вполне работоспособный инструментарий по использованию технологий распознавания речи и рукописного ввода стал широко доступным еще в Microsoft Windows XP (http://support.microsoft.com/kb/306901/ru) при установке Office 2002 (причем работало как управление — Voice Command, так и диктовка текста с голоса — Dictation). Сегодня в Windows Vista входит модуль Microsoft Speech Recognizer уже в версии 8.0 (к сожалению, поддерживаются только английский и японский языки — См. «Панель управления» и «Текст в речь/Свойства речи»). Однако практическая работа с этим модулем даже у англоязычных пользователей до сих пор вызывает серьезные трудности, и потому им мало кто пользуется.

Более перспективным способом применения подобных решений сегодня считается разработка интерфейсов с голосовым управлением на основе диалога, которые будут обладать большими возможностями, нежели аналогичные разработки для мобильных устройств.

Работу в этой области ведут такие компании, как IBM, Microsoft, Nuance Communications и Philips Speech Processing. Российская компания Cognitive Technologies, достигшая значительных успехов в области распознавания печатных текстов, в 2001 году сообщала о совместном проекте с Intel по созданию систем распознавания русской речи, однако никаких успехов на этом поприще она не достигла.

Цифровое перо (Digital Pens)

Цифровые ручки имеют встроенные датчики, которые захватывают и переводят движение пера в цифровую форму, благодаря чему пользователь может создать образец своего почерка в компьютере. Некоторые модели подобных ручек могут работать на обычной бумаге, одновременно рисуя по ней стержнем или карандашом, другие — только на специальных планшетах или сетках, облегчающих распознавание формы символов. Причем скорость внедрения и широта распространения таких устройств превзошли ожидания экспертов и сегодня уже можно приобрести недорогие решения, использующие подобные технологии.

 

Такие изделия в основном применяются для быстрого сохранения электронной копии бумажного оригинала в виде картинки в так называемых цифровых блокнотах, что, впрочем, может рассматриваться только как временное решение (например, для архивного хранения, отсылки по факсу или по электронной почте). При использовании дополнительного ПО можно переводить написанное в символьную форму, преобразуя его сразу в печатный текст (впрочем, как правило, такие программы уверенно преобразуют в символьную форму только отдельно прописываемую рукописную букву, число или знак, но в недалеком будущем их можно будет использовать и для надежного распознавания связной рукописной записи и перевода ее в цифровую форму в виде текста).

Так что если вам часто приходится записывать лекции, заметки, протоколы встреч и другую важную информацию, то уже сегодня все это удобнее делать не только в бумажном, но и в электронном виде. Особенно пригодится такое многофункциональное цифровое перо студентам (которые могут распечатывать спасительные шпаргалки для экзаменов сразу в значительно уменьшенном виде), медицинским и страховым работникам, продавцам и офисным клеркам. С помощью электронного блокнота можно легко делать рукописные заметки, рисунки, схемы и чертежи и всегда иметь под рукой электронный вариант документа.

Из разработчиков технологии цифровых перьев можно отметить такие компании, как Anoto, Hewlett-Packard, Pegasus Technologies и Standard Register. В нашем журнале на протяжении прошедшего года мы описывали цифровые блокноты с подобными ручками, такие как Genius G-Note, Aiptek MyNote, Cross Crosspads, Logitech io series и др.

Распознавание рукописного текста

Системы распознавания рукописного текста (преобразования рукописного письма в соответствующий печатный текст или в команды в режиме реального времени) постепенно вступают в область зрелых промышленных технологий, готовых к широкому применению.

Несколько преждевременно появившись на рынке в ранних КПК (где они использовались большей частью в сильно формализованном виде, поэтому для надежного распознавания приходилось писать специальными значками типа стенографических), эти технологии вызвали некоторое разочарование, но сейчас, спустя много лет, они могут получить широкое применение в таких устройствах, как Tablet PC или Ultra Mobile PC (UMPC). Реально работающие технологии рукописного ввода уже широко используются в таких отраслях, как почта, финансовые операции и заполнение каких-либо стандартизованных форм.

 

Недавно в нашем журнале мы рассказывали о цифровых блокнотах, которые при подключении по USB-интерфейсу к настольному компьютеру под Windows Vista распознаются как планшетные ПК (Tablet PC) и отрабатывают распознавание английского текста. Буквы и цифры, написанные латиницей, Windows Vista распознавала и переводила в символьный вид прямо в тестовом редакторе Microsoft Word. То есть для ввода текста при подключении такого цифрового блокнота, или устройства Tablet PC, или Ultra Mobile PC с сенсорной панелью можно использовать либо опцию рукописного ввода связного текста, либо панель рукописного ввода отдельных знаков, либо экранную клавиатуру для ввода символьного текста путем выбора пером отдельных букв на виртуальной клавиатуре (экранная клавиатура работает так же, как и стандартная, за исключением того, что текст вводится прикосновением курсора пера к клавишам). При применении панели рукописного ввода текст в поле ввода можно писать непрерывно, как на листе бумаги, и компьютер сразу будет преобразовывать его в печатный вид, делая при этом предикативные текстовые подсказки при наборе. Панель ввода знаков работает более надежно, так как преобразует в печатный текст только отдельные рукописные буквы, числа или знаки, введенные вручную. Такие инструменты уже стали стандартными, причем не только в операционных системах семейства Windows. Но, к сожалению, русский язык в рукописном вводе пока нигде не поддерживается — при переключении клавиатуры на ввод русского текста остается доступной только экранная клавиатура.

Из лидеров в области рукописного ввода можно отметить такие компании, как IBM, Microsoft, Nuance Communications и Paragon Software.

Машинный перевод

Автоматический перевод с одного языка на другой уже получил широкое распространение, однако ожиданий до сих пор не оправдал, и пока эта технология позволяет понять лишь общий смысл текстов, но не годится для документов, требующих точного и высококачественного перевода.

Из последних достижений систем автоматизированного перевода можно отметить внедрение статистических подходов, которые позволяют машинным переводчикам постепенно обучаться и использовать для коррекции перевода огромные базы текстов, ранее переведенных людьми. Например, можно подкорректировать переводчика знаменитой поисковой системы Google, отослав свой вариант, — после утверждения такой корректировки «автомат» постепенно будет обучаться и переводить все лучше и лучше.

 

Однако пока системы машинного перевода по-прежнему применяются только для черновых работ, для оценки общего смысла контента на веб-страницах, а также там, где стоимость обычного перевода неоправданно высока.

Основными производителями систем машинного перевода в мире являются компании IBM, Language Weaver, SDL International и Systran. К счастью, в России в этой области работают сильные компании, например, «Промт» и ABBYY (семейство словарей Lingvo), так что в этой области наше отставание от общемировых тенденций не так ощутимо, как в некоторых других.

Распознавание речи в телефонии и в приложениях для контакт-центров

Распознавание речи в телефонии и в приложениях для контакт-центров — это сегодня уже широко распространенная промышленная технология, которая применяется во многих современных мобильных телефонах и в справочных службах. Подобные функции служат прежде всего для голосового управления функциями телефонов и коммуникаторов в условиях ограниченного применения других интерфейсов. Многие пользователи мобильной связи давно получили возможность голосового набора в мобильных телефонах вместо ввода длинного ряда цифр или выбора опций из меню по заранее определенным ключевым словам, причем управляющие команды в современных телефонах практически не зависят от голоса оператора. В этой области уже достигнуты серьезные успехи, а многомодальные интерфейсы комбинируют ввод речи с синтезом возможных ответов или уточнений. Так, распознавание речи сегодня успешно применяется совместно с предикативными системами набора текстов для мобильных телефонов T9 или iTAP. Напомним, что название T9 происходит от английского Text on 9 keys, то есть набор текста при помощи девяти кнопок — эта система была разработана компанией Tegic Communications и используется сегодня в мобильных телефонах большинства крупных производителей, являясь наиболее популярной системой предикативного набора текстов. При наборе текста система T9 пытается угадать, какое слово вы пытаетесь набрать, используя встроенный словарь, причем наиболее употребимые слова подставляются первыми. Такой способ набора намного быстрее обычного, потому что позволяет избегать часто повторяющихся нажатий. Более прогрессивная предикативная система iTAP разработана фирмой Motorola для использования в своих аппаратах и, в отличие от T9, подставляет уже не только те слова, которые содержат столько же букв, сколько набрано, но и более длинные, анализируя при этом не только набираемый текст, но и тот, что набирался ранее. Причем система iTAP является обучаемой, то есть она запоминает наиболее часто употребляемые слова, такие как конкретные имена, фамилии, названия и т.д., и пытается подставить их при наборе в первую очередь. iTAP может угадывать даже короткие фразы, что позволяет еще более существенно ускорить набор текста, особенно если в нем используются простые и часто употребляемые вами слова и фразы. Если же интегрировать речевое распознавание с подобными предикативными системами, то набор текста в телефоне становится еще более простым и эффективным.

 

Что касается контакт-центров (Contact Center), то они представляют собой системы, предназначенные для автоматизации обработки запросов (это могут быть, например, справочные службы, автоматизированные коммутаторы предприятий или системы телемаркетинга — обзвона клиентов, заказа билетов и т.д.). Контакт-центр помогает эффективнее обрабатывать большие потоки входящих и исходящих запросов, в диалоге с клиентом распределяет эти запросы, автоматизирует работу операторов, обеспечивает запись ведущихся разговоров и значимых событий, происходящих в обрабатываемых потоках. Контакт-центры поддерживают различные типы абонентского оборудования (аналоговые телефоны, гарнитуры, IP-шлюзы, телефонные адаптеры, IP-телефоны, USB-телефоны) и интегрируются с существующим программным обеспечением и базами данных компаний (CRM, бухгалтерскими системами, системами голосовой почты и т.п.) и со всеми типами АТС. Отдельные модули контакт-центра позволяют совершать обзвон потенциальных клиентов (например, должников с напоминанием о просроченной задолженности), а другие — принимают звонки и распределяют вызовы по соответствующим службам. Автоматизированный диалог, в котором система расспрашивает абонента для осуществления дальнейшей навигации, является сегодня вполне обычным и отработанным подходом. Причем растущее число звонков не так критично для этой технологии, в отличие от систем, управляемых операторами-людьми. Особо продвинутые контакт-центры поддерживают даже подобие естественного языка, на котором робот может легко ответить на вопрос и направить абонента в соответствующее место или сообщить ему необходимую информацию.

Тем не менее даже самые продвинутые системы, которые обеспечивают независимое от говорящего распознавание речи и предикативный набор, до сих пор имеют ограниченные возможности и выбор осуществляется из не слишком обширного списка вопросов-ответов. Однако такие системы позволяют существенно повысить эффективность соответствующих служб и получают все более широкое распространение. Также для управления мобильными устройствами люди все чаще используют голосовые команды, вызывают голосом абонентов из записной книжки, выбирают музыку из альбомов мобильного телефона или коммуникатора, а также широко пользуются голосовым управлением для ввода текста при посылке простых SMS-сообщений. Дальнейшее развитие подобных систем тоже связывают с успехами в области распознавания живой речи, как и на настольных и мобильных компьютерах, хотя большая специализация подобных систем позволяет меньше зависеть и от фоновых шумов, и от объема предикативного словаря, и от ясности речи говорящего, и от мощности обрабатывающего процессора. В настоящее время ведется работа по расширению возможностей таких систем, увеличению их вариативности, а также ведению автоматизированных диалогов на языке, все более приближающемся к естественному.

Наиболее успешно разработками в области распознавания речи для телефонии и контакт-центров занимаются такие компании, как IBM, Loquendo, LumenVox, Microsoft, Nuance, Telisma и др.

Синтез речи

Успехи в области преобразования текста в живую речь в последнее время особенно впечатляют. Несмотря на то что роботизированный звуковой поток все еще отличается от человеческой речи, применение синтезированной речи уже ни у кого не вызывает отторжения, хотя, согласно многочисленным исследованиям, при бесстрастном и лишенном эмоциональной окраски произнесении текстов часть смысла теряется. Сегодня системы синтезированной речи могут произнести SMS-сообщение на телефоне и письмо, присланное электронной почтой, озвучить указания автомобильной навигационной системы и даже заменить во многих службах оператора-человека. Во всем мире службы автоматического оповещения получили уже довольно широкое распространение, что позволяет говорить об этой технологии как об уже состоявшейся и даже в какой-то мере банальной. Однако положение с распространением этой технологии в России пока не позволяет нам забыть о ней и перестать следить за ее развитием, хотя бесстрастные телефонные голоса роботов-рекламщиков или напоминание должникам о просроченной задолженности за телефонные разговоры, наверное, слышали уже многие.

 

Основными производителями систем синтеза речи являются компании Acapela, AT&T, Fonix, IBM, Loquendo, Nuance, Sensory и SVOX AG.

Интерфейс «мозг — компьютер»

Устройства, позволяющие вводить данные и передавать команды компьютеру силой мысли, существуют не только на страницах научно-фантастических романов. В ряде исследовательских лабораторий ведутся работы по реализации подобных интерфейсов, и ученым уже удалось добиться первых успехов. На выставке CeBit 2006 сотрудники немецкого института Fraunhofer продемонстрировали действующий прототип экспериментального устройства, позволяющего в буквальном смысле силой мысли вводить символы и управлять движением курсора на экране компьютера. Аппаратная часть прототипа представляет собой специальный шлем, в который вмонтировано 128 датчиков (подобных используемым для снятия электроэнцефалограммы), считывающих биотоки мозга. Работа с этим устройством требует определенной тренировки и пока не отличается высокой скоростью: например, для того чтобы набрать одно предложение, подготовленному пользователю понадобится от 5 до 10 минут.

 

По словам специалистов, значительно улучшить результаты можно при использовании вживляемых в мозг электродов, однако подобное решение в силу целого ряда причин неприменимо для массового использования. В настоящее время работы в области создания интерфейса «мозг — компьютер» находятся на стадии научных исследований и создания первых экспериментальных прототипов. Как считают эксперты, внедрение подобных интерфейсов в коммерческих устройствах станет возможным не ранее чем через 10 лет.

Телекоммуникации

Системы платежей на базе бесконтактных чипов (NFC)

Данное решение позволяет оплачивать недорогие покупки и услуги при помощи мобильного телефона, снабженного специальным беспроводным чипом с небольшим радиусом действия (Near-Field Communications, NFC). Для подтверждения платежа пользователю достаточно поднести свой телефон к считывающему устройству — подобно тому, как осуществляется оплата проезда в метро при помощи смарт-карты. Радиус действия NFC-чипа составляет около 10 см.

 

Подобное решение позволяет сделать значительно более удобными расчеты при совершении небольших платежей. Во-первых, пользователю не надо искать в кармане мелочь, а во-вторых, для считывания зашифрованного идентификационного кода потребуется значительно меньше времени, чем для совершения наличного расчета или подтверждения транзакции, осуществляемой посредством пластиковой банковской карты.

В настоящее время системы платежей на базе бесконтактных NFC-чипов находятся на начальной стадии коммерциализации. Крупнейшими поставщиками беспроводных чипов для платежных систем на базе NFC в настоящее время являются компании NXP Semiconductors и Giesecke & Devrient. Наиболее масштабный на данный момент проект по внедрению системы платежей на базе NFC реализован в Японии компанией NTT DoCoMo. В марте 2007 года количество пользователей этой системы превысило 20 млн абонентов. Что касается европейских стран, то наиболее быстрыми темпами системы платежей на базе NFC в настоящее время развиваются в Германии — там уже реализована возможность оплаты проезда в общественном транспорте, а также небольших покупок в ряде розничных торговых сетей.

 

Мобильный телефон Nokia 3220 — одна
из немногих моделей, обеспечивающих техническую
возможность совершения бесконтактных
платежей (фото Nokia)

В 2007 году компания MasterCard развернула на территории штата Техас систему мобильных платежей MasterCard PayPass, базирующуюся на технологии NFC. Бесконтактные терминалы, позволяющие осуществлять платежи на сумму до 25 долл., были установлены в 32 тыс. торговых точках. В качестве клиентского оборудования используются мобильные телефоны Nokia 3220, оснащенные NFC-чипом компании Giesecke & Devrient. Чтобы подключить аппарат к системе MasterCard PayPass, пользователю необходимо отправить соответствующий запрос в банк, после чего будет автоматически произведена загрузка, установка и настройка приложения PayPass. Пока эта система работает в тестовом режиме.

Жители США уже могут воспользоваться системой MasterCard PayPass для оплаты покупок и услуг в сетях 7-Elevens, McDonald’s, CVS, Duane Reade, Sheetz и Regal Entertainment Group. Пилотные проекты по внедрению системы бесконтактных платежей MasterCard PayPass развернуты на территории Канады, Великобритании, Японии, Южной Кореи, Китая, Тайланда, Турции, Ливана, Малайзии, Австралии и Тайваня.

 

В будущем мобильный телефон сможет
во многих случаях заменить кошелек
и банковскую карту (фото Nokia)

Широкому распространению систем бесконтактных платежей пока препятствуют определенные проблемы, касающиеся как технической стороны вопроса, так и несовершенства бизнес-модели. Для реализации возможности работы с платежными системами необходимо не только развернуть соответствующую инфраструктуру (в частности, установить платежные терминалы в точках продаж), но и модернизировать аппаратную и программную часть используемых мобильных телефонов. Ситуация осложняется тем, что в настоящее время существует несколько различных вариантов реализации данного решения, а спецификации и стандарты, описывающие требования к оборудованию NFC, постоянно меняются. Необходимо также учитывать, что в данной системе задействовано множество компонентов (беспроводные чипы, считывающие устройства, мобильные телефоны, программное обеспечение и пр.), которые разрабатывают и выпускают разные производители. Столкновение интересов множества вовлеченных в процесс компаний неизбежно порождает определенные противоречия.

Пока остается весьма ограниченным ассортимент моделей мобильных телефонов, обеспечивающих техническую возможность работы с бесконтактными платежными системами на базе NFC. До 2007 года практически монопольное положение в этом сегменте занимала компания Nokia. Впрочем, уже в ближайшее время ситуация может измениться. Весной 2007 года ассоциация GSM Association запустила проект Pay-Buy Mobile, основной целью которого является развитие, продвижение и популяризация систем бесконтактных платежей на базе технологии NFC. О поддержке проекта Pay-Buy Mobile, одним из инициаторов создания которого является Nokia, уже объявили компании Samsung и LG Electronics, а также многие крупные операторы сотовой связи, в частности KPN, Maxis Communications Bhd, Mobilkom Austria, O2, Orange, SFR, SingTel, SKT, Vodafone и Wind. Собственные проекты по реализации систем бесконтактных платежей разворачивают международные платежные системы MasterCard и Visa. Согласно прогнозам аналитической компании ABI Research, к 2012 году количество мобильных телефонов, обеспечивающих техническую возможность использования бесконтактных платежных систем на базе технологии NFC, составит уже порядка 300 млн шт.

Как считают специалисты, создание разветвленной инфраструктуры, способной обеспечить массовое внедрение бесконтактных платежных систем на базе технологии NFC, станет возможным не ранее чем через три-четыре года. Важным условием является переход к использованию единого технического решения, которое обеспечит перекрестную совместимость клиентского оборудования с платежными терминалами и банковскими системами.

Цифровое ТВ для мобильных телефонов

В настоящее время передача телевизионного сигнала на мобильные телефоны возможна с помощью двух технологий: DVB-H (Digital Video Broadcasting — Handheld) и T-DMB (Terrestrial Digital Multimedia Broadcasting). В течение 2005-2006 годов на территории Австралии, Финляндии, Франции, Германии, Италии, Испании, Великобритании и США было запущено несколько пилотных проектов по развитию телевещания для пользователей мобильных телефонов. Во второй половине 2006 года коммерческие сервисы подобного рода начали функционировать в Италии, Германии и Великобритании, а также в Южной Корее и Японии.

 

Основным препятствием для широкого распространения коммерческого телевещания в стандарте DVB-H является недостаток свободных радиочастот. Технология T-DMB в настоящее время используется лишь на территории азиатских стран. По оценке экспертов, охват мобильного телевещания пока составляет не более 5% целевой аудитории. Впрочем, если в ближайшие годы будут решены существующие технические проблемы, подобные сервисы получат мощный импульс для дальнейшего развития.

В настоящее время исследования и работы по созданию оборудования и отдельных компонентов, позволяющих реализовать функцию приема телевизионного сигнала в мобильных телефонах, ведут компании DiBcom, LG, Nokia, Philips, Qualcomm, Sagem, Samsung и Texas Instruments.

Сотовые сети четвертого поколения (4G)

В настоящее время стандарт мобильной связи четвертного поколения (4th Generation, 4G) находится в стадии разработки. Созданием стандарта 4G занимаются сразу несколько крупных международных организаций и комиссий: ITU-R (International Telecommunication Union Radiocommunication Sector — Сектор радиокоммуникаций международного телекоммуникационного союза), 3GPP (Third Generation Partnership Project — Партнерство по развитию сотовых сетей третьего поколения), IETF (Internet Engineering Task Force — Целевая группа по развитию Интернета), WINNER (Wireless World Initiative New Radio — Инициативная группа по развитию беспроводных коммуникаций). В работе также принимают участие представители крупнейших телекоммуникационных компаний, операторов сотовой связи и производителей телекоммуникационного оборудования.

К настоящему времени уже достигнуты соглашения относительно первоначальных спецификаций стандарта, однако дискуссии по поводу некоторых ключевых технических характеристик еще продолжаются. Это касается максимальной пропускной способности канала в глобальных и локальных сетях (предложены значения в 1 Гбит/с для неподвижных абонентов и 100 Мбит/с для находящихся в движении), выбора технологии беспроводной связи (CDMA или Wi-Fi), протоколов передачи данных, голосового трафика, а также потокового звука и видео.

На данный момент стандарт 4G, объединяющий множество самых разных технологических решений, находится на ранней стадии разработки. Стоит отметить, что некоторые из них, такие как HSDPA (High-Speed Downlink Packet Access), HSUPA (High-Speed Uplink Packet Access) и LTE (Long-Term Evolution), уже реализованы в некоторых сетях третьего поколения (обычно их классифицируют как 3,5G). Реализация этих технических решений представляет дополнительные возможности абонентам и таким образом продлевает период эксплуатации инфраструктуры 3G.

Многие аналитики полагают, что операторы сотовой связи вряд ли перейдут к освоению 4G, пока не получат ощутимую отдачу от инвестиций, вложенных в развертывание инфраструктуры 3G. Необходимо отметить, что проблема возврата инвестиций и обеспечения доходности бизнеса в настоящее время весьма актуальна для операторов сетей 3G, внедривших технологии высокоскоростной передачи данных (в частности, HSDPA и HSUPA); с переходом к эксплуатации сетей 4G эта проблема станет еще более острой. Кроме того, существуют альтернативные технологии (такие как Ultra Mobile Broadband, UMB), которые, в отличие от HSDPA и HSUPA, не являются составляющими 4G, но в то же время рассматриваются в ряде регионов (в США, Латинской Америке и в некоторых азиатских странах) в качестве стандартов сотовой связи следующего поколения.

В настоящее время в ряде стран (в частности, в Японии и Южной Корее) уже введены в строй сети четвертного поколения. Правда, пока они функционируют в тестовом режиме и покрывают относительно небольшие территории. Незадолго до открытия летних Олимпийских игр 2008 года в Китае планируется запустить в эксплуатацию сотовую сеть четвертого поколения, охватывающую Пекин и его пригороды, где будут расположены спортивные объекты. Широкое распространение сотовых сетей четвертого поколения ожидается не ранее 2010 года.

Телеприсутствие (Telepresence)

Термин «телеприсутствие» (Telepresence) был введен для обозначения семейства перспективных технологий, направленных на удаленное управление роботами или другими мобильными механизмами, обратная связь с которыми осуществляется при помощи видеокамеры, показывающей местоположение данного устройства. Эта технология обычно включает также передачу телеметрии и двустороннюю связь с отдаленным объектом.

 

Применение разработок в области телеприсутствия в настоящее время ограничивается в основном научными исследованиями (в космосе или в каких-то враждебных или недоступных человеку средах). Их коммерческое применение возможно прежде всего в медицине (например, для проведения микрохирургических операций или операций, во время которых врач удален от пациента), а также при удаленном обслуживании механизмов, если присутствие оператора сопряжено с опасностью для его жизни или здоровья (например, они могут повысить безопасность работы саперов, специалистов из антитеррористических подразделений, пожарных). До широкого использования технологий телеприсутствия пока еще очень далеко, однако в последнее время в связи с повышенной террористической угрозой во всем мире работа над подобными технологиями активизировалась. В результате за прошедший год они вышли из области повышенного интереса на пик завышенных ожиданий, что делает инвестиции в эту область особенно прибыльными.

На Западе разработкой подобных технологий серьезно занимаются такие компании, как, например, ActivMedia Robotics и InTouch Health.

IP-телевидение (IPTV)

Телетрансляции по IP-сетям (IPTV) в последнее время стали популярной услугой даже в российском Интернете, и сегодня каждый уважающий себя широкополосный провайдер предоставляет этот сервис. Однако коммерческая привлекательность такого рода услуг до сих пор вызывает большие сомнения: слишком уж велика конкуренция, причем не столько между провайдерами интернет-доступа, сколько с другими поставщиками услуг телевещания. Таким образом, развитие IPTV пока нельзя назвать ни безоблачным, ни заведомо предсказуемым. Тем более что этот процесс сдерживается целым рядом препятствий — начиная от недостатков самой услуги (вроде пауз при переключении каналов) и заканчивая стремлением компании Microsoft превратить персональный компьютер в своеобразную приставку для потокового видео и телевидения из Интернета (что стало особенно удобно и эффективно после появления Windows Vista). Благодаря этому возрастает роль видеоконтента, который также можно приобрести через Интернет и закачать для просмотра на компьютер, так что потребность в IPTV у многих пользователей ощущается уже не так остро. Возрастает в Сети и количество всевозможных бесплатных файлообменников, а кроме того, появляется много различных сервисов, аналогичных весьма популярному сегодня YouTube, которые позволяют получать видеосюжеты в онлайне (причем бесплатно).

 

В настоящее время аналитики продолжают придерживаться оптимистического мнения по поводу прогресса в области IP-телевидения, однако если в прошлом году его окончательное утверждение в качестве конкурентоспособной технологии относили всего на 2-5 лет вперед, то теперь прогнозы более сдержанные — сегодня эксперты полагают, что для до того момента, когда операторы IP-телевидения станут предлагать более надежное и удобное обслуживание, чем традиционные виды телетрансляций, и значительно более высококачественное, чем нечто получаемое бесплатно из глубин Глобальной сети, должно пройти еще 5-10 лет. Тем более что сейчас телевидение постепенно переходит на стандарты высокой четкости (HDTV) и перспективы обеспечения IP-телевидения необходимым трафиком для достойной конкуренции с эфиром во многих регионах отодвигаются.

Однако операторы IPTV имеют в своем активе серьезные козыри для конкуренции с традиционными технологиями вещания. Это, во-первых, возможность высокой оперативности в освещении новостей и всевозможных «горячих» событий, более тесная интеграция с другими средствами массовой информации, а также возможность предоставления пользователям более интерактивных услуг, чем простое переключение каналов, и даже услуг с обратной связью.

Считается, что наибольшее развитие IP-телевидение в ближайшее время получит в странах Юго-Восточной Азии, где не столь распространены традиционные средства вещания, как в Америке или Европе. Затем придет черед европейских операторов IPTV, и только потом эти технологии станут действительно конкурентными в США, где сегодня наблюдается явное отставание в развитии инфраструктуры для IPTV и правовой базы для его более активного внедрения. Причем в Америке традиционно сильны платные сети кабельного телевидения, в отличие от преимущественно бесплатного телевидения Европы, поэтому новым технологиям на американском континенте придется туго.

В 2006 году число IPTV-подписчиков в Европе достигло 3,3 млн человек, а к концу 2007 года их количество удвоилось, а вот в Северной Америке в этой области наблюдается явная стагнация. Причем если в Северной Америке за пакет услуг телефония + телевидение + Интернет (так называемый Triple Play) приходится платить по 100 и более долларов в месяц, то большинство европейских телекоммуникационных компаний берут в месяц от 25 до 50 евро, так что даже в условиях падения курса доллара американское предложение не кажется выгодным, тем более что за гораздо меньшие деньги в США можно получить сравнимые по качеству услуги кабельных телевизионных сетей.

В России ситуация больше напоминает европейскую, поэтому технологии IPTV у нас могут вполне успешно конкурировать с другими методами вещания, а следовательно, относить их широкое внедрение еще на десять лет вперед нам, вероятно, не придется.

Сервисы, базирующиеся на местоположении (Location-Based Services)

Сегодня в области навигационных технологий «местоположение» (Location) становится новым универсальным типом данных в различных локальных приложениях и в интернет-сервисах, что приводит к концептуальному изменению отношения к навигации и открывает массу новых возможностей.

Параллельно с разработкой новых протоколов связи и устройств, способных определять свое местоположение, разработчики занимаются сегодня развитием и совершенствованием способов практического использования этой информации (Location-Based или Location-Aware Services). Ведь в настоящее время все соответствующие системы (сегодня они условно называются системами первого поколения) являются лишь разновидностями поисковых систем, решающих задачи только одного вида: найти объект, человека или услугу. Даже навигационные системы в автомобилях фактически относятся к этому же классу. А сейчас уже необходимо не только создавать устройства и приложения, определяющие местоположение, но и разрабатывать различные сервисы с более высокой функциональностью, чем у привычных навигационных систем, и эти сервисы будут использовать информацию о местоположении объектов для решения более широких задач, а не просто для определения местоположения.

 

Сегодня большинство потребителей хочет иметь в подобных устройствах помимо базовых навигационных возможностей такие функции, как автоматическая реконфигурация устройств в зависимости от окружения (например, в домашних условиях печать с ноутбука производится на домашнем принтере, а перемещенный в офис ноутбук автоматически переключается на офисный принтер); повышение уровня безопасности (например, изменение прав доступа в зависимости от местонахождения устройства); независимое отслеживание перемещения устройства (необходимое, например, для того, чтобы экскурсанты могли найти друг друга в большом городе, а родители следить за детьми, для более эффективной доставки товара, для контроля за перемещением грузов, для содействия в поиске самого устройства, когда оно утеряно или украдено); ведение ежедневников, которые мгновенно рассчитают и отобразят занятое и свободное время, при этом автоматически учтут время на дорогу до пункта назначения и порекомендуют самый быстрый маршрут с учетом текущей информации о дорожном движении.

Многие из этих функций уже находятся на стадии промышленного применения (например, в Ближневосточной Азии у операторов связи широко распространены услуги, «подсказывающие» местонахождение самого близкого ресторана, кинотеатра или банкомата, а европейские операторы, учитывая интерес к модным сегодня коммуникаторам, повсеместно предлагают планирование маршрута и загрузку навигационной и динамически обновляемой справочной информаций о пробках на дороге). Однако основной потребительский рынок пока далек от серьезных деловых предложений в этой области, но в ближайшем будущем абоненты будут обращать все больше внимания на новые возможности связи. Доходность сервисов, базирующихся на местоположении, должна существенно повыситься, и тогда крупнейшие игроки обратят на нее самое пристальное внимание. По оценкам экспертов, перелом в отношении к подобным сервисам должен наступить в ближайшие 12-18 месяцев, поскольку уже понемногу появляется довольно агрессивная реклама. И тогда единственным барьером у пользователей на пути к освоению этих технологий останется относительно высокая стоимость навигаторов и соответствующего программного обеспечения.

Необходимо также отметить, что сценарии использования ноутбуков, мобильных телефонов и карманных компьютеров различаются. Поэтому хотя и возможно дублирование функций и совпадение областей применения новых технологий независимо от типа используемых устройств, но каждая категория мобильных устройств также будет иметь свое направление применения информации о местоположении — ведь ни один класс устройств не предназначен для выполнения всех задач и не решает их все в полном объеме.

Наиболее представительные разработчики в этой области — Telenav и TruePosition.

Технологии обработки данных с учетом местоположения (Location-Aware Technology)

Сегодня в области навигационных технологий наблюдается весьма странная картина: обычно новые идеи появляются в рамках тех или иных глобальных концепций, затем принимаются стандарты, а уж потом все это реализуется в конкретных приложениях. Здесь же наблюдается обратная ситуация: сначала появились и завоевали популярность всевозможные средства для определения местоположения объектов, потом были созданы коммерческие приложения для работы с этими средствами, а лишь затем возникла идея стандартизовать все подходы и внедрить по общим методикам возможность определения координат во все устройства, которыми мы пользуемся в повседневной жизни. И вот сегодня положение наконец нормализуется: уже приняты или вот-вот будут приняты все соответствующие стандарты и производителям останется лишь плавно перейти от хаотичного развития к планомерному осуществлению общих концепций. На нашем графике это отражается следующим образом: если в прошлом году внедрение новых сервисов и стандартов (Location-Aware Technology) прогнозировалось через несколько лет, в то время как выпуск приложений (Location-aware applications) шел уже полным ходом, то сегодня, наоборот, окончательная победа концепций ожидается в ближайшие 1-1,5 года, а появление новых приложений с их учетом отодвигается на 2-5 лет.

 

По сути, сегодня предлагается интегрировать со всеми существующими средствами связи спутниковую GPS-навигацию и в результате не только реализовать в мобильных телефонах, ноутбуках, карманных ПК и других мобильных устройствах функцию определения того, где они находятся и какие объекты располагаются поблизости, но и «научить» устройства устанавливать связь друг с другом и соответствующими объединительными серверами посредством новых стандартных протоколов. Отметим, кстати, что в России не так интересно следить за перипетиями интеграции различных технологий, поскольку нет такого богатства вариантов, как в других странах, но важно не пропустить момент появления таких систем на нашем рынке, чтобы определиться с индивидуальными подходами к их применению и найти наиболее эффективные инструменты из нового арсенала услуг для решения своих задач.

Например, в США сегодня параллельно развивается концепция Assisted GPS (A-GPS), продвигаемая компанией SnapTrack Qualcomm, с использованием технологий связи CDMA, и Enhanced GPS (E-GPS) от компании CSR Cambridge Positioning System с применением WCDMA-сети и технологии Enhanced Observed Time Difference (EOTD) для достижения высокой точности позиционирования. Причем технология E-GPS появилась позже A-GPS, но развивается динамичнее, поэтому до Европы в ближайшее время может дойти именно она. Впрочем, неважно, какие средства связи будут интегрироваться с GPS-навигацией. К нам, возможно, новые системы дойдут уже при поддержке беспроводных сетей Wi-Fi и/или WiMAX и не будут нуждаться в телефонии. Однако следует учесть тот факт, что, по прогнозам экспертов, уже к концу 2010 года около 40% сотовых телефонов будут поддерживать GPS-навигацию, а поскольку это добавляет к традиционным телефонным сервисам новые услуги, то наши операторы связи должны реализовать продвинутые технологии обработки данных с учетом местоположения, поскольку эти услуги могут принести им дополнительный доход.

Сегодня ведущими разработчиками в этой области являются такие компании, как CellPoint, CSR, Polaris Wireless, SiRF Technology, SnapTrack и TruePosition.

Приложения, работающие с учетом местоположения (Location-ware applications)

Решения, учитывающие данные о местоположении, — это мобильные приложения, которые позволяют использовать географические координаты нахождения оборудования, сотрудника или какого-то объекта для того, чтобы предоставлять дополнительные сервисы (например, отслеживать перемещение курьеров, автоматизировать транспортировку и доставку грузов, выстраивать логистику на основе реальных данных о движении товаров, заботиться о безопасности сотрудников и грузов и т.д.).

Обычно такие системы строятся на базе спутниковых GPS-навигаторов или сотовых сетей мобильных операторов на основании привязки к базовым станциям. Вначале подобные системы были преимущественно узкоспециализированными, поэтому проектировались и настраивались строго на конкретную область применения, объект или заказчика. Однако рост числа организаций, использующих мобильные приложения с подобными технологиями, и дальнейшее успешное внедрение таких разработок привели к тому, что области и методы их применения в последнее время значительно расширились, эффективность повысилась, а кроме того, появился целый ряд удобных универсальных решений, все меньше нуждающихся в настройке под конкретную область применения или под заказчика. Однако переход к новым стандартам и концепциям использования оборудования с обратной связью и построением распределенных сетей потребует от разработчиков ПО более существенных преобразований, чем они это традиционно делали, поэтому выход нового софта, по прогнозам экспертов, несколько задержится.

 

Кстати, службы оповещения о трафике (загруженности дорог) работают неэффективно не только в России — и по всему миру все чаще подобные услуги (они обозначаются общим термином infomobility services — информационно-мобильные сервисы) вызывают справедливые нарекания. Также в Северной Америке и в Европейском союзе не оправдали надежд эксперименты по обеспечению бесперебойного хождения общественного транспорта — например оказалось, что другие составляющие транспортной системы, такие как оплата и получение билетов пассажирами, могут внести существенные коррективы в расчетные показатели систем, работающих с учетом местоположения.

Над разработкой подобных приложений активно работают такие компании, как Appear Networks, Aventeon, IBM, LogicaCMG, Webraska Mobile Technologies и др.

Наземное цифровое телевидение (эфир)

Когда сегодня говорят о цифровом телевидении, то уже по умолчанию подразумевают цифровое телевидение высокой четкости (HDTV), которое является важным шагом в развитии традиционных вещательных технологий. Однако при воспроизведении на старом аналоговом оборудовании достоинства новых технологий полностью не раскрываются (потребители могут получать сигнал по той же антенне или кабелю, что и раньше, но дополнительно требуется цифровой декодер для старого телевизионного приемника или новый телевизор HDTV Ready). Поэтому широкое распространение цифровых форматов в обычном эфирном телевидении тормозится естественным в таких случаях ожиданием обновления парка телевизионных приемников, имеющихся в распоряжении пользователей. Спутниковое телевидение, например, уже при установке предполагает существенные затраты, на фоне которых смена приемника не кажется обременительной (то есть пользователи спутниковых каналов проходят некий имущественный ценз), поэтому переход на цифровые форматы высокой четкости у владельцев спутниковых «тарелок» происходит быстрее.

Традиционные «наземные» вещатели вынуждены активизировать переход к HDTV, чтобы быть конкурентоспособными спутниковым системам (пропускная способность которых, кстати, весьма ограниченна), а также набирающим обороты IPTV (пока формат высокой четкости недоступен для многих интернет-сетей). Вещатели, в принципе, уже готовы, и переход на новый формат является лишь политической проблемой. Окончание аналогового телевещания в США намечается на февраль 2009-го, а в Европе этот процесс пройдет в 2010-2012 годах. Надеемся, что мы от нее не отстанем!

Медиатехнологии

Медиацентр на базе ПК

В прошедшем году отмечалось некоторое падение интереса и в области использования медиацентров на базе ПК. Да, функциональность современных компьютеров значительно расширилась и они фактически трансформировались в универсальные мультимедийные устройства широкого профиля, однако до полной зрелости этой технологии еще далеко. Все пользователи, которые хотели применять ПК как мультимедийный центр, уже успешно освоили новые технологии, поэтому значительного расширения этой группы не ожидается, а стремительного роста интереса к мультимедийным цифровым технологиям не наблюдается. Например, если год назад медиацентр можно было приобрести исключительно как коробочное решение (причем относительно дорогое), то сегодня рядовой потребитель вполне может собрать подобное устройство самостоятельно. Для этого необходимо только подобрать комплектующие, которые соответствуют определенным спецификациям, и установить на полученную систему домашнюю версию Vista, оснащенную надстройкой Media Center. Однако, несмотря на столь простую реализацию, многие потребители до сих пор не имеют четкого представления, какие преимущества обеспечивает наличие медиацентра и не стремятся использовать его функции на практике.

 

А между тем медиацентр — это последний этап эволюции персонального компьютера, которая должна завершить тенденцию замещения компьютером всех остальных домашних развлекательных устройств. Однако на практике все оказывается не столь гладко, как кажется на первый взгляд, что отталкивает многих от применения новых технологий. Превращению ПК в домашнего развлекательного монополиста мешают следующие причины: во-первых, для управления компьютером, в отличие от любой бытовой техники, нужны определенные умения и навыки, что для огромной категории простых обывателей кажется обременительным (одной-двумя кнопками, как на бытовом плеере, с компьютером не обойтись); во-вторых, компьютерные средства вывода пока все же уступают по качеству бытовой аудио- и видеоаппаратуре (видеофильм комфортнее смотреть на большом телевизионном экране, а не на маленьком, пусть даже хорошем мониторе, а музыку приятнее слушать с помощью качественной акустики, а не компьютерных колонок); наконец, в-третьих, компьютер при работе шумит, мешает слушать и пугает пользователя своими габаритами и сложностью.

 

Все перечисленные проблемы пытаются решать специализированные медиацентры, которые ближе к бытовой аппаратуре, нежели к традиционному компьютеру (мультимедийные центры выпускают в маленьких кубических корпусах или в корпусах горизонтального исполнения, что позволяет вписать такой ПК в комплекс домашних видео- и аудиоустройств). Взаимодействие с таким медиацентром осуществляется без помощи клавиатуры и мыши — полный контроль над развлекательными возможностями обеспечивает пульт дистанционного управления (настоящий пульт для медиацентра, сертифицированный компанией Microsoft, должен иметь все необходимые кнопки, включая те, которые позволяют быстро вызвать программу телевидения или переключиться на список записанных программ). Кроме того, такой компьютер должен быть оснащен широким набором коммуникационных портов, TV-тюнером, а также мультиформатным картридером.

Современный медиацентр представляет собой гибрид широкого спектра бытовых развлекательных устройств и ПК. Он может стать адекватной заменой и домашнего кинотеатра, и игровой консоли, и аудиосистемы, и рабочего компьютера. Этот домашний ПК продолжает оставаться компьютером, но при этом выполняет функции единого развлекательного центра цифрового жилища, облегчающего доступ к хранимой информации в любое время из любого помещения при помощи самых разных устройств.

Для гарантированной реализации возможностей, предоставляемых Windows XP Media Center Edition или Windows Vista Media Center, требуется соответствие компонентов компьютера определенным спецификациям (у компании Intel эти спецификации называются Viiv, а у AMD — Live!).

Однако, несмотря на возникшие в процессе развития медиатехнологий на ПК трудности «переходного периода», эксперты отмечают рост интереса пользователей к мультимедийным функциям ПК и медиацентры приобретают все большую популярность. Однако предлагаемые специализированные решения пока немногочисленны и предназначены для тех немногих пользователей, которые отважатся наконец полностью перейти на цифровые технологии при создании домашнего центра развлечений.

Наиболее представительными разработчиками в этой области являются такие компании, как Dell, HP, Intel, Microsoft, Sony, Toshiba и др.

Видеочаты

Возможность пообщаться в Интернете не только голосом, но и «картинкой» не представляется слишком новой и революционной — корпоративные видеоконференции проводятся давно и уже стали отлаженной промышленной технологией, но на потребительском уровне эта технология продвигалась в течение многих лет и долго не могла оправдать надежды разработчиков. Однако в последнее время с распространением широкополосного Интернета идея транслировать в диалоге обычных интернет-пользователей еще и видео по IP обретает второе дыхание. Видеокамеры сегодня дешевы (а многие ноутбуки оснащаются уже встроенными web-камерами), а такие популярные программы, как Skype, совместно с IP-телефонией (VoIP) позволяют транслировать по интернет-протоколам вместе с голосом и видеоизображение. И то, что Skype, как и другие подобные программы, наконец включила в свои чаты возможность видеотрансляции, должно побудить большое число пользователей опробовать эту возможность на практике и пересмотреть свое отношение к ней.

 

Кстати, помимо общего увеличения пропускной способности Интернета, улучшились и алгоритмы сжатия видео и теперь поток транслируется по IP-протоколам не только быстрее, но и гораздо качественнее.

Интерактивное вещание

Интерактивное телевидение развивается уже более десятка лет, но до сих пор не получило сколь-нибудь заметного распространения. И вот наконец в этом году эксперты берутся утверждать о скором выходе этой технологии на плато продуктивности, а срок ее окончательного оформления устанавливается не слишком продолжительный.

Ранее мы некорректно объединяли интерактивное телевидение и вещание по требованию — Video on Demand (VoD), но теперь эти понятия разделились и вещанием по требованию называется платформа (причем не обязательно полностью интерактивная — достаточно какой бы то ни было формы заказа с целью получения для просмотра определенных фильмов), а вот интерактивное телевидение — это полноценная обратная связь на платформе VoD, которая может использоваться не только для выбора фильмов, но и для видеоигр, учебных курсов EPG (Electronic Program Guides), демонстрации диалоговой рекламы, коммерческой информации и других коммуникационных услуг.

 

С распространением Windows Vista применение контента по требованию будет расширяться и интерактивные услуги (в том числе просмотр высококачественного видео на компьютере) станут обыденным явлением. Однако при этом могут возникнуть трения между пользователями и поставщиками таких услуг, поскольку богатые возможности Windows Vista предоставляются наряду с жесткими ограничительными мерами в области защиты авторских прав, которые для многих наших пользователей пока непривычны. Например, россияне неохотно воспринимают необходимость покупки временных лицензий, впрочем и во всем мире попытки строить бизнес на ограничении сроков лицензирования не увенчались успехом.

Мобильное видео по требованию

Вслед за выходом вещания по требованию на традиционные телевизионные экраны и компьютерные мониторы (Video on Demand) близится бум видео, загружаемого по заказу на мобильные телефоны, причем оно является более перспективным, так как в отношении его проще разрешаются проблемы оплаты и лицензионные коллизии. Уже в течение нескольких лет активно развивается индустрия производства контента (видеороликов, музыкальных клипов и фильмов), специально предназначенного для просмотра на маленьком экране сотового телефона. Выпуском подобной продукции занимаются сегодня продюсерские компании по всему миру. Есть студии такого профиля и в России. Особым успехом у пользователей мобильных телефонов пользуются коротенькие юмористические сюжеты, спортивные состязания, гэги и мультфильмы (как рисованные, так и 3D). В принципе, видео на телефоны грузят с тех пор, как появились GPRS (General Packet Radio Service) и CDMA2000, однако лишь в последнее время это увлечение переросло в массовое и соответственно стало коммерчески привлекательным бизнесом.

А с усовершенствованием мобильных технологий, появлением EDGE (Enhanced Data Rates for Global Evolution) и сетей третьего поколения, таких как WCDMA (Wideband Code Division Multiple Access) и CDMA2000 1X EV-DO, процесс загрузки фильмов и видеороликов и вовсе будет необременительным. И тогда музыкальные клипы, спортивные состязания и, естественно, эротика пойдут по мобильным сетям сплошным потоком.

Производители телефонных аппаратов уже подготовились к буму Mobile Video on Demand — емкость запоминающих устройств на мобильных телефонах кардинально увеличилась. Особую заинтересованность в мобильных зрителях своих аппаратов демонстрируют такие компании, как Ericsson, Motorola и Nokia.

Видео по требованию

Вещание по требованию — Video on Demand (VoD) — является сегодня уже окончательно оформившейся технологией, даже в России оно предлагается некоторыми операторами интернет-доступа и кабельного телевидения.

На самом деле вещанием по требованию называют целый класс технологий, которые похожи друг на друга только конечным результатом для пользователя (заказал — получил для просмотра). А в технологическом плане это может быть как трансляция видео по Интернету, так и другие методы (например, кабельные каналы DOCSIS, различные DVB и спутниковые каналы вещания). Что касается Интернета, то для VoD по IP-протоколам никаких модификаций сети оператора интернет-доступа не требуется. Односторонняя передача информации от одного к одному (unicast) является для публичного Интернета обычным делом и требует дополнительного вмешательства со стороны оператора лишь при дефиците полосы пропускания до клиента, что отмечается сегодня все реже. Более сложной является односторонняя передача информации от одного ко многим (так называемый multicast), к которой плохо приспособлены современные IP-технологии и сети. Значительно более эффективно VoD осуществляется с помощью тех или иных эфирных либо кабельных технологий (при этом, скажем, по кабелю в технологии DOCSIS может идти и Интернет, который в этом случае является, напротив, не основной, а дополнительной возможностью). При этом даже в случае необходимости обратной связи с пользователями (обеспечивающей интерактивность) подобный канал может быть построен любым способом, в том числе и по Интернету. При наличии спроса на подобные услуги традиционные вещатели могут быстро наладить смешанные технологии получения multicast-сигнала и построения обратного канала связи с получателем видеоконтента.

 

Производителями оборудования и технологий для VoD являются следующие компании: C-Cor, Cisco, Cisco/Scientific Atlanta, Concurrent Computer, Entone Technologies, Ericsson/Tandberg Television, Kasenna, Motorola и SeaChange International.

Технологии на замену кремния

Технология ДНК-вычислений (DNA Logic)

DNA Logic — это технология ДНК-вычислений, представляющая собой раздел области молекулярных вычислений, который находится на границе молекулярной биологии и компьютерных наук. Конечно, DNA Logic связана с полупроводниковыми технологиями лишь в том смысле, что она может рассматриваться в качестве одной из технологий, которые в будущем составят альтернативу традиционным кремниевым технологиям создания вычислительных процессоров.

 

Основная цель ДНК-вычислений — построение новой парадигмы вычислений, создание новых алгоритмов вычислений на основе знаний о строении и функциях молекулы ДНК и операциях, которые выполняются в живых клетках над молекулами ДНК при помощи различных ферментов.

На базе ДНК-вычислений ведется разработка биологического нанокомпьютера, который можно будет вживлять в клетку организма и производительность которого будет исчисляться миллиардами операций в секунду при энергопотреблении не более одной миллиардной доли ватта.

История ДНК-вычислений началась в 1994 году, когда Леонард М. Эдлман (Leonard M. Adleman) поставил первый эксперимент, продемонстрировавший их возможности и преимущества. В настоящее время ДНК-вычисления все еще находятся на стадии лабораторных исследований, так что создание биологического компьютера станет возможным не ранее чем через 30 лет. Именно поэтому DNA Logic находится на графике Hype Cycle for Semiconductors в самом начале кривой.

Молекулярные транзисторы

Производство транзисторов в традиционном виде, то есть со стоком, истоком и затвором, возможно лишь до 2020 года. К тому времени все элементы транзистора достигнут атомарных размеров и уменьшать их дальше будет просто невозможно. Таким образом, 2020 год — это фактически тот рубеж, когда закон Мура перестанет действовать, а кремний потеряет свою актуальность как основной материал микроэлектроники. Значит, уже сейчас следует искать принципиально новые материалы и технологии для создания транзисторов будущего.

В числе перспективных направлений рассматриваются такие, как молекулярные транзисторы, транзисторы на основе спиновых волн электронов, ферроэлектрические транзисторы, транзисторы на основе интерференции волн и пр. Конечно, пока невозможно представить, как именно будут выглядеть транзисторы лет через пятнадцать, но ясно одно: это будут устройства с молекулярными размерами, абсолютно не похожие на существующие ныне CMOS-транзисторы.

В самом общем виде под молекулярным транзистором понимают транзистор размером с одну молекулу. Идея молекулярных транзисторов не нова. Еще в 1959 году Ричард Фейнман высказал идею, согласно которой молекулы, обладающие определенными свойствами, смогут работать как элементарные переключатели и заменять собой транзисторы.

Молекулярный транзистор — это молекула, которая может существовать в двух устойчивых состояниях с разными свойствами. Переводить молекулу из одного состояния в другое (переключать) можно с помощью света, тепла, магнитного поля и т.д., формируя двухбитную систему, воспроизводящую на молекулярном уровне функцию классического транзистора.

По размеру молекулярный транзистор будет на два порядка меньше самых миниатюрных кремниевых транзисторов, а его эффективность может оказаться в 100 млрд раз выше по сравнению с современным кремниевым.

Создание молекулярных транзисторов в настоящее время находится на стадии лабораторных исследований.

Еще в 1974 году специалисты из компании IBM представили вещество, молекула которого обладала теми же свойствами, что и обычный диод. Пропуская ток в одном направлении, введением дополнительного, управляющего фрагмента она могла быть усовершенствована до своеобразного молекулярного транзистора. При соединении двух таких молекул получается абсолютный аналог полупроводникового триггера — основного элемента современных процессоров. «Переключать» же данное устройство, имитируя состояния бита — 0 и 1, возможно с помощью света или электрического поля.

Впрочем, вскоре ученые поняли, что копировать традиционный транзистор совсем необязательно. Ведь теоретически роль бита может играть любая двухуровневая система, которую относительно легко можно перевести из одного состояния в другое. Молекул же, меняющих свою структуру при определенном физико-химическом воздействии, известно немало. Например, спиробензопирены переходят в одно состояние под действием ультрафиолета, а в другое — с помощью обычного света. На основе подобных структур возможно построение не только логических элементов, но и устройств памяти. Соединять же молекулярные триггеры можно, используя либо углеродные нанотрубки, либо разработанные недавно токопроводящие полимеры (за их открытие в 2000 году группе ученых была вручена Нобелевская премия).

В 2001 году исследовательская группа из «Лабораторий Белла», изучавшая свойства так называемых тионов — органических веществ со свойствами полупроводников, получила органическую молекулярную структуру, преобразующую логический ноль в единицу и обратно. Размер канала этого органического транзистора равен длине одной молекулы, то есть 1-2 нм. Молекулярный транзистор из тиона в 10 раз меньше всех полупроводниковых приборов, созданных по самым совершенным технологиям. Группа ученых приступила к созданию модулей ИС из молекулярных транзисторов на основе тионов.

Успешно работающий прототип преобразователя напряжения позволяет предположить, что с помощью молекулярных транзисторов удастся создать микропроцессоры и чипы памяти с плотностью элементов в тысячу раз большей, чем позволяют современные технологии.

И хотя молекулярные транзисторы сейчас кажутся нам фантастикой, первые молекулярные схемы уже существуют и в текущем десятилетии должно начаться их серийное производство. Первый же полноценный молекулярный компьютер появится, по прогнозам экспертов, не ранее 2020 года.

Quantum Computing

Вычислительная мощность процессоров постоянно возрастает. Но, несмотря на постоянное увеличение производительности процессоров, многие задачи оказываются не по силам даже самым мощным суперкомпьютерам. К примеру, с задачей о разложении целого числа, имеющего миллион знаков, на простые множители, не справится ни один современный компьютер (для этого потребовалось бы время, превышающее возраст Вселенной).

Существует, однако, способ ускорить процесс вычисления для некоторых специальных классов задач. Речь идет о создании квантовых компьютеров с совершенно иной логикой вычислений.

Кроме разложения числа на простые множители, квантовые компьютеры позволяют эффективно решать такие непосильные для обычных компьютеров задачи, как неупорядоченный поиск в базе данных или симулирование квантовых систем, состоящих из большого количества частиц. Например, для расчета одного атома азота средствами традиционного компьютера потребуется время порядка возраста Вселенной.

Основным элементом квантового компьютера являются квантовые биты, или кубиты (от quantum bit, qubit). Кубит напоминает обычный бит, который может принимать всего два значения: 0 или 1, но, в отличие от обычного бита, кубит подчиняется законам квантовой механики и для него применим принцип суперпозиции состояний.

В качестве кубита может использоваться любая квантовая частица (то есть частица, подчиняющаяся квантовым законам), обладающая двумя базовыми состояниями: 0 и 1 (аналогично обычному биту). К примеру, кубитом может быть спин электрона, который направлен вверх (состояние 0) или вниз (состояние 1). Другие примеры кубита — основное и возбужденное состояния атома, направление тока в сверхпроводящих кольцах, спины атомного ядра и др.

Как мы уже отмечали, для кубита применим квантовый принцип суперпозиции состояний. Данный принцип довольно трудно понять человеку, не посвященному в законы квантовой механики, но на простейшем уровне его можно описать так. Кроме двух базовых состояний (0 или 1), кубит может находиться и в промежуточных состояниях, то есть одновременно (в один и тот же момент времени) с некоторой долей вероятности быть в состоянии 1 и в состоянии 0. Это свойство квантовых частиц обеспечивает параллелизм квантовых вычислений, что делает их более эффективными для решения ряда задач, чем используемые сейчас технологии. Например, если квантовая память состоит из двух кубитов, то можно синхронно работать со всеми ее состояниями: 00, 01, 10, 11.

Логические операции над кубитами реализуются при помощи специальных активных элементов, называемых квантовыми вентилями. Скорее всего, логика квантового компьютера будет идентична классической, однако за счет суперпозиции квантового бита теоретически вполне обоснованно и введение новых, не имеющих классических аналогов операций.

Первые теоретические работы по квантовой электронике появились всего 20 лет назад, и с тех пор квантовые вычисления стали быстро эволюционировать. К примеру, разработчикам из группы профессора Марка Эриксона из Университета шт.Висконсин в Мэдисоне удалось смоделировать архитектуру квантового компьютера на основе кремниевой технологии. Они смогли создать массив квантовых точек в кремниево-германиевом полупроводнике, в каждой из которых находился один-единственный электрон. Для кодирования кубита использовался спин электрона. Управление кубитами осуществлялось при помощи электростатических затворов, при «открытии» которых появляется возможность как горизонтального, так и вертикального туннелирования электрона. На построенном прототипе будущего квантового компьютера ученым удалось решить несколько элементарных задач.

Российский ученый М.В.Фейгельман из Института теоретической физики им. Л.Д.Ландау предложил использовать в качестве кубита квантового регистра крошечные сверхпроводящие кольца. В этом случае состояниям 0 и 1 будет соответствовать направление тока в кольце: по или против часовой стрелки.

Переключаться же кубиты могут магнитным полем. Учитывая успехи последних лет в области высокотемпературной сверхпроводимости, описанная схема представляется весьма перспективной.

Стоит обратить внимание и на идею И.Чанга, предложившего использовать спины сложных органических молекул для построения квантовой вычислительной машины. Работы в этой области уже дали ощутимые практические результаты. Так, в конце прошлого года группа ученых из компании IBM и Стэнфордского университета продемонстрировала реализацию алгоритма Шора факторизации чисел при помощи созданного ими семикубитового квантового компьютера. Хотя решенная ими задача — разложение числа 15 на простые множители (3 и 5) — кажется несерьезной, данный успех является важной вехой в развитии квантовой электроники.

Техническая реализация описываемого устройства весьма оригинальна. Квантовый компьютер представляет собой пробирку с жидким органическим веществом, молекулы которого имеют семь ядерных спинов. Программирование производится при помощи электромагнитных импульсов разной частоты, а для получения результатов работы используется ЯМР-сканер (ЯМР — ядерно-магнитный резонанс). Помимо решения простейшей задачи о факторизации, экспериментально на ЯМР-квантовых компьютерах были осуществлены алгоритм Гровера, квантовое Фурье-преобразование, квантовая коррекция ошибок, квантовая телепортация, квантовое моделирование и другие операции. Однако ввиду ряда неразрешимых проблем квантовые компьютеры на молекулах органической жидкости никогда не смогут иметь число кубитов больше 10. Поэтому их следует рассматривать лишь как прототипы будущих квантовых вычислительных систем, полезные для отработки принципов квантовых вычислений и проверки квантовых алгоритмов.

Транзисторы на углеродных нанотрубках

Технология углеродных нанотрубок (Carbon Nanotube) — одна из наиболее перспективных и быстроразвивающихся технологий современной микроэлектроники.

Углеродные нанотрубки, которые также называют фуллеренами, или углеродными каркасными структурами, — это большие молекулы, состоящие только из атомов углерода. Принято даже считать, что эти молекулы представляют собой новую форму углерода, наряду с известными формами — графитом и алмазом. Если подходить к понятию фуллеренов формально, то можно сказать, что это аллотропные молекулярные формы углерода, в которых атомы расположены в вершинах правильных шести- и пятиугольников.

В конце 80-х — начале 90-х годов фуллерены научились получать в макроскопических количествах, а в 1991 году неожиданно были открыты новые фуллерены, напоминающие длинные цилиндрические каркасные формы, — они называются нанотрубками. В поперечном сечении их размер обычно составляет несколько нанометров, в то время как по длине они могут достигать гигантских размеров — вплоть до миллиметра.

Один из интересных способов применения нанотрубок — это создание полевых транзисторов, в которых роль канала проводимости выполняет именно нанотрубка. В традиционном полевом транзисторе канал переноса носителей заряда (дырок и электронов), который представляет собой область между стоком и истоком, обогащенную основными носителями заряда, образуется в подзатворной области под действием электрического поля, возникающего при приложении напряжения к затвору. Меняя напряжение на затворе, можно управлять каналом переноса (концентрацией носителей заряда в подзатворной области). При этом, как правило, рассматриваются два состояния полевого транзистора: открытое и запертое. В открытом состоянии существует канал переноса заряда, и под воздействием напряжения между стоком и истоком возникает электрический ток. В запертом состоянии канала переноса нет и тока между стоком и истоком не возникает.

Принцип действия полевого транзистора на основе нанотрубки подобен принципу действия традиционного транзистора, но каналом переноса заряда в данном случае является сама нанотрубка.

В простейшем случае транзистор с нанотрубкой выглядит следующим образом. На подложку из кремния, которая сама является управляющим электродом (затвором), наносится тончайшая пленка защитного слоя — оксида кремния. На ней расположены сток и исток в виде тонких проводящих рельсов, между которыми размещена сама нанотрубка с полупроводниковой проводимостью. В обычном состоянии концентрация свободных носителей зарядов (дырок и электронов) в нанотрубке мала, то есть она является диэлектриком. Однако при помещении в электрическое поле трубка становится проводником. Электрическое поле, управляющее проводимостью нанокарбоновой трубки, создается затвором, которым, как уже отмечалось, является кремниевая подложка.

Первой в 2001 году транзистор на нанотрубках изготовила компания IBM. С тех пор было разработано множество альтернативных схем транзисторов с нанотрубками. К примеру, в компании Samsung была создана схема транзистора с вертикальным расположением нанотрубок.

Конечно, пройдет еще немало времени, прежде чем транзисторы на основе нанотрубок будут внедрены в массовое производство, однако уже сейчас очевидно, что они имеют массу преимуществ в сравнении с традиционными и будут востребованы в ближайшем будущем.

Другой интересный способ применения нанотрубок — это создание энергонезависимой оперативной памяти NRAM (Nonvolatile Random Access Memory). Первой данный тип памяти реализовала компания Nantero (www.nantero.com). В предложенной ею схеме на кремниевую подложку наносится тонкая изолирующая пленка оксида кремния, вдоль которой размещаются токопроводящие электроды шириной в 130 нм, отделенные друг от друга изолирующими слоями. Над электродами перпендикулярно к ним расположены массивы нанотрубок, которые замыкаются с обеих сторон на проводящие контакты. В обычном состоянии (состояние OFF) нанотрубки не касаются электродов и находятся над ними на высоте порядка 13 нм. Если к нижнему электроду приложить напряжение, то нанотрубка под воздействием электрического поля начнет выгибаться и коснется нижнего электрода. Однако такое состояние (состояние ON) оказывается устойчивым за счет баланса между возникающим механическим напряжением и ван-дер-ваальсовыми силами. В результате даже после исчезновения напряжения форма нанотрубки не изменится. Таким образом, меняя напряжение на электроде, можно переходить между двумя стабильными механическими состояниями нанотрубок, в одном из которых имеется контакт с электродом, а в другом — нет. Одно из этих состояний будет отвечать логическому нулю, а другое — логической единице.

Для того чтобы прочитать содержимое элементарной ячейки памяти, между нижним электродом и контактом, к которому подсоединены нанотрубки, отвечающие выбранной ячейке памяти, подается напряжение. Если ячейка памяти находится в состоянии OFF, при котором нет физического контакта между электродом и нанотрубкой, то электрическая цепь оказывается разомкнутой, а напряжение — высоким, что соответствует логической единице. Если же ячейка памяти находится в состоянии ON, то есть имеется контакт между нанотрубкой и нижним электродом, то цепь замыкается и напряжение будет низким, что соответствует логическому нулю.

В сравнении с традиционными типами памяти, память NRAM имеет ряд преимуществ. Во-первых, несмотря на то, что это RAM-память, она является энергонезависимой. Во-вторых, по утверждениям компании Nantero, плотность записи информации в устройствах NRAM может достигать 5 млрд бит на квадратный сантиметр (это в несколько раз больше, чем в современных микросхемах памяти), а частота работы памяти — до 2 ГГц.

В 2006 году президент компании Nantero заявил, что компания приступит к серийному производству NRAM памяти уже в 2007 году. Однако пока массовое производство модулей NRAM-памяти так и не началось.

Перспективные технологии памяти

Полимерная память (PFRAM)

Полимерная память (PFRAM) относится к категории флэш-памяти и может использоваться для энергонезависимого хранения данных. По оценкам аналитиков, удельный объем такой памяти, отнесенный к одному квадратному сантиметру площади, почти в 20 раз больше, чем у обычной флэш-памяти. Разработку памяти такого типа ведут многие фирмы, в частности компания Intel в содружестве с Thin Film Electronics — дочерней компанией шведской фирмы Opticom, впервые предложившей полимерную память еще в 1994 году. Специалистами Thin Film Electronics получена специфическая группа полимеров с двумя стабильными состояниями поляризации. Их открытие позволяет программировать память путем изменения поляризации пленки сегнетоэлектрического полимера, заключенной между взаимно перпендикулярными металлическими шинами, и обеспечивает энергонезависимость памяти.

 

Пленка полимера может содержать и тонкопленочные транзисторы схем управления. Благодаря возможности формировать многослойные структуры полимерной памяти обеспечивается ранее недостижимый объем памяти. Если для функционирования обычной кремниевой схемы памяти объемом 1 Гбит требуется 1,5-6,5 млрд транзисторов, то для памяти PFRAM-типа такого же объема их нужно только 500 тыс. При этом объем полимерной памяти размером с кредитную карту эквивалентен объему 400 тыс. CD-дисков или объему устройства, хранящего достаточно данных для воспроизведения музыки MPG-формата в течение 126 лет. При этом увеличение емкости памяти за счет нанесения дополнительных полимерных пленок не влечет за собой существенного роста потребляемой мощности.

Полагают, что полимерная память найдет применение в первую очередь в картах памяти цифровых фотокамер и другом бытовом оборудовании. Массовое производство PFRAM-памяти начнется не ранее 2015 года.

PRAM

PRAM — это новый тип памяти, позиционируемый как универсальная замена и динамической, и флэш-памяти. В качестве признака состояния ячейки предлагается использовать изменение фазового состояния халькогенида (chalcogenide) — вещества, способного под воздействием нагрева и электрических полей переходить из непроводящего аморфного состояния в проводящее кристаллическое. Такая память известна также как «память с изменением фазового состояния» (phase change memory, PCM), PRAM и Ovonic Unified Memory. Она является энергонезависимой, то есть не требует электропитания для сохранения своего состояния.

Наряду с материалами, описывающими возможные перспективы производства мультигигабитных чипов PCM по 45- или 32-нм процессу, компания ST представила прототип 128-Мбит чипа PCM, изготовленный по 90-нм технологии. К преимуществам PRAM-памяти относятся малая площадь ячейки, хорошие электрические характеристики и высокая надежность.

До сих пор халькогениды применялись в основном в перезаписываемых оптических носителях, где использовалась их способность к изменению не только электрических, но и оптических свойств, а коммерческая реализация PCM была затруднена из-за проблем с получением достаточно качественного материала и с энергопотреблением. Возрастание интереса к этому типу памяти связано с тем, что PCM лучше подходит для применения вместе с более «тонкими» литографическими техпроцессами, чем динамическая или флэш-память.

MRAM

MRAM (Magnetic Random Access Memory) — это один из перспективных типов энергонезависимой памяти, которая может прийти на смену как динамической оперативной памяти DRAM, так и статической памяти SRAM и флэш-памяти.

Вместо конденсаторов, применяемых в микросхемах DRAM, технология MRAM предусматривает использование тонкой магнитной пленки. В привычных нам микросхемах памяти информация сохраняется благодаря формированию соответствующим образом распределенного заряда конденсаторов, а в устройствах MRAM это будет осуществляться за счет намагничивания пленки.

Одно из преимуществ новой технологии заключается в том, что, в отличие от DRAM, память MRAM является энергонезависимой. В микросхемах DRAM информация хранится в конденсаторах, и при отключении питания происходит ее потеря. Это означает, что для длительного хранения информацию необходимо переписывать на жесткий диск, имеющий магнитную поверхность. Благодаря энергонезависимости память MRAM позволяет преодолеть это ограничение. Таким образом, при отключении питания не пропадет ни бита.

При применении эффекта магнитной поляризации вместо электрического заряда отпадает необходимость в периодическом обновлении памяти MRAM. Таким образом, не требуется и загрузка компьютера в начале каждого сеанса работы. Пользователи получат в свое распоряжение устройства, находящиеся в постоянной готовности.

Еще одно преимущество памяти MRAM состоит в том, что она подразумевает бесконечное число циклов записи (для флэш-памяти число циклов записи ограничено), а также очень высокие скорости записи и доступа. Запись бита информации в чип MRAM происходит примерно в миллион раз быстрее, чем во флэш-память. Время чтения бита из MRAM примерно в три раза меньше, чем у NOR-флэш, и почти в тысячу раз меньше, чем у NAND-флэш-памяти.

Технология MRAM выглядит многообещающей. Конечно, пройдет еще немало времени, прежде чем память MRAM появится в коммерческих системах. Но если данная технология будет развиваться в правильном направлении, то со временем она вытеснит с рынка микросхемы DRAM.

Собственно, первоначально прогнозировалось, что первые образцы MRAM-памяти появятся на рынке уже в 2004 году, а в 2005-м спрос на память составит 40 млрд долл. Именно такие прогнозы делались в 2001 году. Действительно, в июне 2004 года компания Infineon продемонстрировала чип MRAM емкостью 16 Мбайт, однако производство MRAM-памяти до сих пор не вышло на уровень массового, серийного, хотя различные компании периодически делают анонсы о разработке новых типов MRAM-памяти.

Технологии создания элементной базы

Кремниевая фотоника (Optical Silicon)

Optical Silicon, или Silicon Photonic, — это так называемая кремниевая фотоника, то есть научные исследования и разработки, находящиеся на стыке квантовой оптики и кремниевой электроники.

Исследования в области оптических систем связи и оптических цепей начались еще в 1970-х годах — тогда оптические цепи представлялись как некий оптический процессор или супероптический чип, в котором воедино интегрировались и передающее устройство, и модулятор, и усилитель, и детектор, и все необходимые электронные компоненты. Однако практической реализации этой идеи мешало то обстоятельство, что компоненты оптических цепей изготавливались из различных материалов, поэтому интегрировать в единую платформу (чип) на основе кремния все необходимые компоненты было невозможно. Несмотря на триумф кремния в области электроники, его использование в оптике казалось весьма сомнительным.

 

Возможность применения кремния для оптических цепей изучается на протяжении уже многих лет — со второй половины 1980-х годов. Однако особого прогресса так и не было достигнуто. По сравнению с другими материалами, попытки использовать кремний для построения оптических цепей не принесли ожидаемых результатов.

Дело в том, что из-за особенностей структуры запрещенной зоны кристаллической решетки кремния рекомбинация зарядов в нем приводит в основном к тепловыделению, а не к излучению фотонов, что не позволяет применять его для создания полупроводниковых лазеров, являющихся источниками когерентного излучения.

При всех сложностях использования кремния в качестве материала для оптических цепей в последнее время в этом направлении наметились существенные сдвиги. Как выяснилось, легирование кремния эрбием изменяет структуру запрещенной зоны таким образом, что рекомбинация зарядов сопровождается излучением фотонов, то есть появляется возможность использовать кремний для получения полупроводниковых лазеров. Первый коммерческий лазер на основе легированного кремния был создан компанией ST Microelectronics. Перспективным также является применение полупроводниковых перестраиваемых лазеров. Такие лазеры используют в качестве резонатора интерферометр Фабри-Перо и излучают на нескольких частотах (многомодовый режим). Для выделения монохроматического излучения служат специальные внешние фильтры на основе дифракционных решеток (дисперсионные фильтры).

Система лазера с внешним дисперсионным резонатором позволяет перестраивать длину волны излучения. Традиционно для получения требуемой длины волны применяется прецизионная настройка фильтров относительно резонатора. В корпорации Intel смогли создать перестраиваемый лазер, в котором вообще отсутствуют подвижные части. Он состоит из недорогого многомодового лазера с решеткой, внедренной внутрь волновода. Изменяя температуру решетки, можно настраиваться на определенную длину волны, то есть осуществлять переключение между отдельными модами лазера.

В феврале 2004 года компания Intel сделала очередной прорыв в области кремниевой фотоники, продемонстрировав первый в мире кремниевый оптический фазовый модулятор на частоте 1 ГГц. Впоследствии, в апреле 2005 года, компания Intel продемонстрировала модулятор, функционирующий на частоте уже 10 ГГц.

В феврале 2005 года компания Intel объявила об очередном технологическом прорыве — создании кремниевого лазера непрерывного действия на эффекте Рамана.

В нем впервые удалось избежать эффекта двухфотонного поглощения излучения, точнее не самого явления двухфотонного поглощения, а его негативного последствия — поглощения излучения на образующихся свободных электронах.

Для того чтобы устранить негативное последствие поглощения излучения на свободных электронах, образующихся в волноводе в результате двухфотонного поглощения, кремниевый волновод размещался между двумя затворами. Если между этими затворами создать разность потенциалов, то под воздействием электрического поля свободные электроны и дырки будут «вытягиваться» из кремниевого волновода, устраняя тем самым негативные последствия двухфотонного поглощения.

Кремниевый лазер непрерывного действия на основе эффекта Рамана предполагает наличие внешнего источника излучения, которое используется в качестве излучения накачки. В этом смысле данный лазер не решает одну из главных задач кремниевой фотоники — интегрировать все конструктивные блоки (источники излучения, фильтры, модуляторы, демодуляторы, волноводы и т.д.) в единый кремниевый чип.

Более того, применение внешних источников оптического излучения (расположенных вне чипа или даже на его поверхности) требует очень высокой точности юстировки лазера относительно кремниевого волновода, поскольку разъюстировка в несколько микрон может привести к неработоспособности всего устройства. Требование прецизионной юстировки не позволяет вывести данный класс устройств на массовый рынок и делает их довольно дорогими. Поэтому выравнивание кремниевого лазера относительно кремниевого волновода является одной из важнейших задач кремниевой фотоники.

Данная проблема может быть решена в том случае, если лазер и волновод изготавливаются в одном кристалле в рамках одного технологического процесса. Именно поэтому создание гибридного кремниевого лазера, который был продемонстрирован компанией Intel в 2006 году, можно рассматривать как выход кремниевой фотоники на новой уровень.

Принцип действия такого гибридного лазера довольно прост и основан на излучающих свойствах фосфида индия (InP) и способности кремния проводить свет.

Фосфид индия, выполняющий функцию активного вещества полупроводникового лазера, расположен непосредственно над кремниевым волноводом и отделен от него тончайшим слоем диэлектрика (его толщина составляет всего 25 атомных слоев) — оксида кремния, который является прозрачным для генерируемого излучения. При приложении напряжения между электродами возникает поток электронов по направлению от отрицательных электродов к положительным. В результате через кристаллическую структуру фосфида индия проходит электрический ток. При этом в результате процесса рекомбинации дырок и электронов возникают фотоны, то есть излучение, которое попадает непосредственно в кремниевый волновод.

Описанная структура кремниевого лазера не требует дополнительной юстировки лазера относительно кремниевого волновода, поскольку их взаимное расположение реализуется и контролируется непосредственно в ходе формирования монолитной структуры гибридного лазера.

Первый чип, продемонстрированный компанией Intel совместно с Калифорнийским университетом UCSB, содержал в себе семь гибридных кремниевых лазеров.

Создание гибридного кремниевого лазера может иметь далеко идущие последствия для кремниевой фотоники и ознаменовать начало эры высокопроизводительных вычислений.

В недалеком будущем в чип будут интегрироваться десятки кремниевых лазеров, модуляторов и мультиплексор, что позволит создавать оптические каналы связи с терабитной пропускной способностью.

Многоканальные транзисторы (Multigate Transistors)

Многоканальные транзисторы (Multigate Transistors) отличаются принципиально новой геометрией, которая призвана повысить их эффективность. Идеальной является цилиндрическая форма транзистора. Один цилиндр, включающий в свой состав канал проводимости и области стока и истока, окружен соосным полым цилиндром из диэлектрического материала, а сверху расположен еще один соосный металлический цилиндр, выполняющий функции затвора. Такая конструкция минимизирует токи утечки и улучшает все характеристики транзистора.

 

Структура Multi-Channel Tri-gate-транзистора

Для создания идеального трехмерного транзистора компания Intel еще в сентябре 2002 года разработала так называемые трехзатворные Tri-gate-транзисторы, которые рассматривались в качестве перспективной технологии для производства транзисторов в будущем. В транзисторе типа Tri-gate используется новая трехмерная структура, в которой затворы как бы обернуты вокруг трех сторон кремниевого канала. Такая структура позволяет посылать электрические сигналы как по «крыше» транзистора, так и по обеим его «стенам». Благодаря подобной схеме распределения тока эффективно увеличивается площадь, доступная для прохождения тока, а значит, снижается его плотность, а вместе с ней уменьшается и утечка. Тройной затвор строится на ультратонком слое полностью обедненного кремния, что обеспечивает еще большее снижение тока утечки и позволяет транзистору быстрее включаться и выключаться при значительном снижении энергопотребления. Особенностью этой конструкции также являются поднятые исток и сток — в результате снижается сопротивление, что позволяет транзистору работать при токе меньшей мощности.

Трехмерная архитектура транзистора позволяет производить многоканальные Tri-gate-транзисторы (Multi-Channel Tri-gate Devices). В таких устройствах используется один трехмерный затвор, который управляет прохождением тока между несколькими парами истоков и стоков, то есть одновременно образует множество каналов. Такая архитектура дает возможность еще больше увеличить плотность размещения транзисторов на кристалле, а кроме того, повысить силу тока в транзисторе, поскольку суммарный ток, проходящий через транзистор, пропорционален количеству пар «исток — сток» в транзисторе.

Рассмотренные структуры Tri-gate- и Multi-Channel Tri-gate-транзисторов — это перспективные разработки, которые, как предполагается, будут востребованы до 2013 года.

Post 193-nm Lithography

Литография — это один из важнейших этапов в производстве микросхем, технология, применяемая для нанесения рисунка будущей микросхемы на слой фоторезиста посредством специальных литографических масок.

Важнейшей характеристикой литографического процесса является его разрешающая способность, обусловливающая минимальную толщину линии, которую можно нанести на фоторезисте.

В современном производстве процессоров используется проекционная литография, в которой применяются линзы или зеркала, позволяющие проецировать рисунок маски-шаблона с уменьшением масштаба.

Разрешающая способность проекционной литографии, то есть минимальная толщина линии, которую можно получить на фоторезисте, определяется критерием Релея:

 

где — длина волны источника излучения, NA — числовая апертура объектива, а k1 — коэффициент пропорциональности, зависящий от типа фоторезиста и технологического процесса.

Из формулы для вычисления разрешающей способности оптической литографии следует, что лучшее разрешение можно получить за счет увеличения числовой апертуры проекционной установки или перехода к источникам излучения с более короткой длиной волны.

Однако увеличение числовой апертуры проекционной установки имеет негативное последствие. Дело в том, что кроме разрешающей способности литографический процесс характеризуется еще и глубиной резкости. Если разрешающая способность определяет характерный поперечный размер фокусировки, то глубина резкости — характерное расстояние фокусировки в продольном направлении. Глубина резкости вычисляется по формуле:

 

Как следует из данной формулы, увеличение числовой апертуры объектива приводит к уменьшению глубины резкости, а чем меньше глубина резкости, тем большую точность необходимо обеспечить при размещении пластины в проекционной установке, чтобы выдержать ее параллельность фокальной плоскости (плоскости фокуса) с точностью до долей микрометра. К примеру, при применении 65-нм техпроцесса производства глубина резкости составляет порядка 0,2 мкм. Поэтому единственный способ увеличить разрешающую способность литографического процесса при заданной глубине резкости заключается в том, чтобы перейти к источниками излучения с более короткой длиной волны.

Если говорить об источниках излучения, то в современной литографии используется коротковолновое ультрафиолетовое излучение с длиной волны 248 нм (технологический процесс 350, 250 и 180 нм) и 193 нм (технологический процесс 180, 130, 90, 65 и 45 нм).

Литография с применением источников излучения с длиной волны 248 и 193 нм получила название DUV (Deep UltraViolet — глубокое ультрафиолетовое излучение).

Для того чтобы увеличить разрешающую способность литографического процесса при использовании коротковолнового ультрафиолетового излучения с длиной волны 193 нм, применяют различные технологии улучшения разрешающей способности, например маски-шаблоны с фазовым сдвигом. В таких масках на одну из двух соседних прозрачных линий накладывается фазовый фильтр, сдвигающий фазу проходящей волны на 180°. В результате интерференции волн в противофазе происходит их взаимное ослабление в области между двумя экспонируемыми линиями, что делает их лучше различимыми и повышает разрешающую способность.

Шаблоны с фазовым сдвигом используются в 65-нм техпроцессе. Однако применять лишь одни маски-шаблоны с фазовым сдвигом уже недостаточно, чтобы достичь разрешающей способности, характерной для топологической нормы 45 нм (45-нм техпроцесс), при использовании коротковолнового ультрафиолетового излучения с длиной волны 193 нм. Именно поэтому считалось, что возможности оптической DUV-литографии ограничены техпроцессом 65 нм и переход на техпроцесс 45 нм потребует новых источников излучения. Так, первоначально предполагалось, что для литографии с проектной топологией 45 и 32 нм будет применяться так называемая ЕUV-литография (Extreme UltraViolet — сверхжесткое ультрафиолетовое излучение), которая основана на использовании ультрафиолетового излучения с длиной волны 13,5 нм.

Разработками в области ЕUV-литографии в компании Intel активно занимаются с середины 1990-х годов. В частности, именно компания Intel в 1997 году сыграла решающую роль в формировании консорциума, разработавшего первый инженерный испытательный стенд EUV-литографии, и именно она установила первый в мире коммерческий аппарат EUV Micro Exposure Tool (MET) и пилотную линию по нанесению масок EUV, включающую инструменты восстановления масок и обнаружения дефектов в заготовках масок.

Переход с DUV- на EUV-литографию обеспечивает более чем 10-кратное уменьшение длины волны и переход в диапазон, где свойственные транзисторам размеры сопоставимы с размерами всего нескольких десятков атомов.

Однако с применением ЕUV-излучения связаны и некоторые проблемы. Поскольку свет с длиной волны 13,5 нм поглощается всеми материалами, в том числе стеклом, из которого изготавливаются традиционные линзы, то в EUV-литографии используется полностью отражающая, а не пропускающая оптика. Маски, которые традиционно являются пропускающими, также должны быть отражающими. Кроме того, вся система должна находиться в вакууме, поскольку световые волны диапазона EUV поглощаются воздухом.

Несмотря на успехи компании Intel в разработке ЕUV-литографии, нужно отметить, что переход на новый литографический процесс производства крайне дорог и требует практически полного переоборудования фабрик по производству процессоров. А потому продление жизненного цикла традиционной DUV-литографии — крайне важная технологическая задача. Именно поэтому параллельно с развитием ЕUV-литографии делаются шаги по улучшению традиционной DUV-литографии.

В результате предпринятых действий по улучшению традиционной DUV-литографии выяснилось, что оптическую литографию с источником излучения 193 нм можно использовать и для 45-нм, и даже для 32-нм техпроцесса.

Что же касается перехода на EUV-литографию, то он откладывается, причем если ранее не было никаких сомнений в том, что EUV-литография будет применяться при 22-нм техпроцессе, то теперь и этот факт неочевиден.

Иммерсионная литография (Immersion Lithography)

Иммерсионная литография — это технология, которая используется для улучшения проекционной литографии. Идея иммерсионной литографии заключается в том, что между маской-шаблоном и кремниевой подложкой находится дополнительная среда — жидкость. Дело в том, что скорость распространения света в веществе всегда меньше скорости распространения света в вакууме и зависит от коэффициента преломления этого вещества. Фактически это равносильно тому, что свет, проходящий через материал с высоким коэффициентом преломления, имеет меньшую длину волны (эффективная длина волны уменьшается в n раз, где n — коэффициент преломления среды), поэтому может быть сфокусирован более точно.

Методика иммерсионной литографии подразумевает погружение кремниевых пластин в очищенную воду. Применение воды в этом процессе объясняется тем, что она имеет более высокий коэффициент преломления, чем воздух, что, в свою очередь, позволяет добиться увеличения разрешающей способности литографии без изменения длины волны источника излучения.

Пионером в области иммерсионной литографии является компания IBM. В ее экспериментах с использованием установки, получившей название NEMO, оптика и жидкость имеют коэффициент преломления порядка 1,6, а коэффициент преломления фоторезиста составляет 1,7.

В установке NEMO лазерный луч разделяется на два, а затем эти лучи перекрещиваются, создавая интерференционную картину, или интерферограмму, позволяющую при помощи стандартного процесса иммерсионной литографии добиться более близкого расположения соседних линий на пластине. Опытная установка, по мнению разработчиков, идеально подходит для исследований, испытаний и подбора различных жидкостей с высоким коэффициентом преломления, а также фоторезистов для использования в литографических аппаратах будущего.

С помощью метода погружения специалисты IBM смогли получить четкие выпуклые линии шириной всего 29,9 нм, разделенные одинаковыми пробелами. Полученные проводники примерно втрое меньше применяемых сегодня в рамках серийного 90-нанометрового технологического процесса и меньше, чем позволяет получить 32-нанометровая технология, которая до последнего времени считалась теоретическим пределом для оптической литографии.

Конечно, в иммерсионной литографии есть свои технологические проблемы. Главная из них — это получение жидкости с высоким коэффициентом преломления. При этом жидкость не должна вступать в химическую реакцию с кремниевой подложкой и слоем фоторезиста. Кроме того, при применении иммерсионной литографии приходится учитывать такие негативные явления, как температурные флуктуации жидкости, что приводит к ее неоднородности и, как следствие, к рассеиванию проходящего излучения. Существуют и другие специфические проблемы.

Такие компании, как Chartered Semiconductor, IBM, Samsung, Texas Instruments и TSMC, уже объявили о своих планах по переходу на иммерсионную технологию. Данная технология будет использоваться и при производстве процессоров на базе 32-нанометрового техпроцесса.

Промышленная струйная печать

Японские ученые доказали, что технологию пьезоэлектрической струйной печати можно использовать не только для получения изображений, но и для промышленного производства некоторых компонентов электронных устройств. В частности, метод струйной печати может стать альтернативой литографического процесса, применяемого для выполнения ряда ключевых технологических операций при производстве печатных плат и ряда других компонентов (таких, например, как дисплейные панели на базе ЖК и OLED). Для промышленных установок, оснащенных пьезоэлектрическими печатающими головками, синтезированы жидкие составы, позволяющие формировать на подложке проводники, изолирующее покрытие и пр.

 

Замена литографического процесса на струйную печать позволяет значительно сократить материалоемкость и энергоемкость производства, а также заметно уменьшить количество отходов (в том числе токсичных и опасных для окружающей среды). Кроме того, применение струйной печати дает возможность снизить себестоимость и сократить сроки изготовления продукции, особенно при производстве мелких партий и единичных экземпляров изделий.

В настоящее время уже запущены в коммерческую эксплуатацию первые промышленные струйные установки, предназначенные для изготовления многослойных печатных плат, нанесения светоизлучающих материалов и формирования полупроводниковых элементов на подложках дисплейных панелей. Например, начиная с 2005 года при производстве серийных ЖК-панелей EPSON для мультимедиапроекторов выравнивающий слой наносится на стеклянную подложку методом промышленной струйной печати.

Альтернативные источники питания

Тонкопленочные солнечные батареи

Исторически в качестве светопоглощающего материала в солнечных батареях применяется кристаллический или поликристаллический кремний, хотя этот материал обладает относительно слабой способностью поглощать свет, а кроме того, необходимо, чтобы его толщина составляла несколько сотен микрон, то есть нужно использовать достаточно толстый слой кремния. В то же время солнечные батареи на основе кристаллического кремния обладают эффективностью порядка 11-16%, а для их производства применяется тот же хорошо отработанный технологический процесс, который используется для производства микросхем.

 

Каждая ячейка солнечной батареи на основе кристаллического кремния вырабатывает напряжение до 0,5 В. Обычно применяются модули, в которых соединяется 36 таких ячеек, что позволяет создавать солнечные батареи с выходным напряжением 12 В.

Основной недостаток солнечных батарей на основе кристаллического кремния — это их высокая стоимость. Кристаллический кремний сложен в производстве и дорог, а стоимость кристаллической кремниевой подложки, используемой при производстве солнечных батарей, составляет порядка 40-50% стоимости самой солнечной батареи.

Именно поэтому в последние годы активно разрабатываются новые технологии производства солнечных батарей, которые были бы существенно дешевле в производстве.

Альтернативой солнечным батареям с использованием массивных кристаллических или поликристаллических кремниевых подложек являются тонкопленочные солнечные батареи, в которых полупроводник осаждается тонким слоем (толщиной порядка одного микрона) на тонкую подложку из стекла или стали. В качестве полупроводника могут выступать различные материалы, обладающие способностью поглощать свет. Наиболее часто для этого используется аморфный кремний или поликристаллические материалы, такие как теллурид кадмия (CdTe), CIS и CIGS. Тонкопленочные солнечные батареи на основе CdTe/CIS/CIGS еще не доведены до массового производства, однако это направление перспективно, поскольку такие батареи обладают высокой эффективностью и в то же время дешевы в изготовлении.

Тонкопленочные кремниевые солнечные батареи производятся уже довольно давно. Они применяются в часах и калькуляторах. Аморфный кремний в них осаждается на тонкую подложку. Нужно отметить, что эффективность тонкопленочных солнечных батарей на основе аморфного кремния существенно ниже, чем у солнечных батарей на основе кристаллического кремния, однако высокая эффективность в данном случае не является критически важной характеристикой и для бытовых устройств типа часов или калькуляторов тонкопленочные батареи на основе аморфного кремния являются стандартом. Более того, эффективность таких батареек под воздействием света со временем снижается на 13-15%.

Несмотря на все недостатки, присущие тонкопленоленочным солнечным батареям на основе аморфного кремния, нужно признать, что именно это направление является сегодня наиболее интенсивно развивающимся. В последнее время были предприняты попытки улучшить технологию производства солнечных батарей на основе аморфного кремния, в результате удалось добиться стабильности этих элементов (предотвратить падение их эффективности под воздействием света) и повысить их эффективность.

Компактные топливные элементы

Топливные элементы — это специализированные химические реакторы, предназначенные для прямого преобразования энергии, высвобождающейся в ходе реакции окисления топлива, в электрическую энергию. Данные устройства имеют по крайней мере два принципиальных отличия от гальванических батарей, также преобразующих энергию протекающих в них химический реакций в электричество. Во-первых, в топливных элементах используются не расходуемые в процессе работы электроды, а во-вторых, необходимые для проведения реакции вещества подаются извне, а не закладываются внутрь элемента изначально (как в обычных батарейках).

 

Принцип работы топливного элемента

В отличие от аккумуляторов, заряд которых возобновляется при подключении к внешнему источнику тока, восстановление работоспособности топливных элементов осуществляется путем пополнения запаса компонентов, применяемых для поддержания электрохимической реакции, — топлива и (в некоторых конструкциях) окислителя. Большинство конструкций малогабаритных топливных элементов, создаваемых для использования в портативных ПК и электронных приборах, рассчитаны на применение жидкого углеводородного топлива (в частности, метилового спирта).

В настоящее время работы по созданию компактных топливных элементов ведут компании Hitachi, LG Electronics, NEC, Smart Fuel Cell, Sony, Toshiba и др.

Сначала ожидалось, что первые коммерческие модели компактных топливных элементов появятся на рынке в 2007 году, однако в силу ряда причин этого не произошло. Вполне очевидно, что для нормальной эксплуатации топливных элементов необходимо наладить сеть сбыта топливных картриджей. Не до конца решена и проблема перевозки топливных картриджей в самолетах гражданской авиации — ведь заключенный в них метанол относится к категории легковоспламеняющихся и ядовитых веществ. Кроме того, производителям до сих пор не удалось найти решение, которое позволило бы обеспечить эффективное охлаждение химического реактора (рабочая температура которого составляет 200-300 °С) в малогабаритных устройствах. После нескольких случаев самопроизвольного воспламенения литий-ионных батарей портативных ПК, получивших широкую огласку, этой проблеме приходится уделять особое внимание. Ведь если подобные казусы произойдут с первыми серийными изделиями на базе компактных топливных элементов, то технология будет дискредитирована в глазах потенциальных пользователей.

 

Прототип зарядного устройства
для мобильных телефонов, созданный
на базе топливного элемента

В сложившейся ситуации наиболее вероятно, что первыми коммерческими устройствами, предназначенными для массового пользователя, станут внешние источники питания и зарядные устройства на базе топливных элементов. И только затем следует ожидать появления мобильных устройств, оснащенных встроенными энергоустановками на топливных элементах.

 

В начало В начало

КомпьютерПресс 1'2008


Наш канал на Youtube

1999 1 2 3 4 5 6 7 8 9 10 11 12
2000 1 2 3 4 5 6 7 8 9 10 11 12
2001 1 2 3 4 5 6 7 8 9 10 11 12
2002 1 2 3 4 5 6 7 8 9 10 11 12
2003 1 2 3 4 5 6 7 8 9 10 11 12
2004 1 2 3 4 5 6 7 8 9 10 11 12
2005 1 2 3 4 5 6 7 8 9 10 11 12
2006 1 2 3 4 5 6 7 8 9 10 11 12
2007 1 2 3 4 5 6 7 8 9 10 11 12
2008 1 2 3 4 5 6 7 8 9 10 11 12
2009 1 2 3 4 5 6 7 8 9 10 11 12
2010 1 2 3 4 5 6 7 8 9 10 11 12
2011 1 2 3 4 5 6 7 8 9 10 11 12
2012 1 2 3 4 5 6 7 8 9 10 11 12
2013 1 2 3 4 5 6 7 8 9 10 11 12
Популярные статьи
КомпьютерПресс использует