Перспективные технологии: итоги и прогнозы
Анализ бизнес-процессов и управление ими
Средства анализа бизнес-процессов
Средства управления бизнес-правилами
Инфраструктура бизнес-приложений
Архитектура, управляемая моделью
Архитектура, ориентированная на сервисы
Архитектуры, основанные на службах данных
Хранилища данных бизнес-приложений
Управление информационными активами предприятия
Управление информационным наполнением
Средства повышения эффективности работы и поддержки принятия решений
Технологии поиска в медиаданных
Открытые форматы офисных документов (Open XML, OpenDocument)
Офисные пакеты на основе Web 2.0
Excel как клиентская часть аналитических приложений
Программное обеспечение для информационной безопасности
Доступ с помощью единой «точки входа»
Мониторинг и предотвращение активности приложений
Программное обеспечение с открытым кодом
Серверы приложений Java EE с открытым кодом (Open-Source Java EE Application Servers)
Серверные операционные системы с открытым кодом
Linux как корпоративная настольная ОС
Средства разработки с открытым кодом (Open-source application development tools)
Управление предоставлением ИТ-услуг
Information Technology Infrastructure Library
Средства управления портфелями ИТ-услуг
Управление информационным наполнением веб-сайтов
Дисплеи, проецирующие изображение на сетчатку
Дисплеи на базе бистабильных ЖК-структур (ChLCD и PABN LCD)
Дисплеи на базе технологий SED, FED и NED
Интерфейсы «компьютер — человек»
Автоматизированный синхронный перевод (Speech-to-Speech Translation)
Распознавание речи для мобильных устройств
Распознавание речи в телефонии и в приложениях для информационных и справочных служб
Распознавание рукописного текста
Распознавание жестов (Gesture Recognition)
«Умные» ткани (Fabric Sensors)
Системы платежей на базе бесконтактных чипов (NFC)
Сотовые сети четвертого поколения (4G)
Цифровое телевидение высокой четкости (HDTV)
Стационарное цифровое телевидение (эфир)
Цифровое ТВ для мобильных телефонов
Телеприсутствие (Telepresence)
Потоковое видео и безленточные технологии
Технологии обработки данных с учетом местоположения (Location-Aware Technology)
Сервисы, базирующиеся на местоположении (Location-Based Services)
Приложения, работающие с учетом местоположения (Location-ware applications)
Технология ДНК-вычислений (DNA Logic)
Транзисторы на углеродных нанотрубках
Перспективные технологии памяти
Технологии создания элементной базы
Иммерсионная литография (Immersion Lithography)
Создание новых технологий, их развитие и воплощение в коммерческих продуктах — процесс непрерывный и закономерный. Без появления новых технологий остановился бы технический прогресс, а рыночную экономику ждал бы неминуемый коллапс. Однако каждая из новых разработок имеет свои особенности и определенный потенциал. Если одни могут лишь незначительно улучшить существующие решения, то другие способны совершить настоящий переворот в той или иной отрасли ИT-индустрии. Можно ли заранее оценить перспективность той или иной технологии?
К счастью, новые технологии появляются не каждый день. Это оставляет нам шанс разобраться в них раньше, чем они устареют и сойдут со сцены. Адекватная оценка потенциала готовящихся к выходу на рынок технологий важна для всех: пользователи получают стимул приобрести продукты с принципиально новыми возможностями, производители — расширить и разнообразить линейку предлагаемых решений, а бизнесмены — сделать выгодные инвестиции и получить хорошую прибыль.
Самостоятельно разобраться во всем многообразии современных ИT-технологий довольно сложно, и здесь на помощь приходят аналитики, обобщающие поток поступающих из различных источников данных и представляющие их в доступной для понимания форме. Одним из наиболее наглядных способов систематизации данных о развитии каких-либо процессов является графическое представление. Специалисты агентства Gartner, одного из ведущих мировых центров в области анализа современных ИT-технологий, создали графическую модель для представления данных о развитии новых технологий. Она получила название Hype Cycle, которое можно перевести как «цикл ажиотажа».
В соответствии с концепцией данной модели каждая новая технология в процессе своего развития проходит пять стадий, соответствующих определенной области графика (см. рисунок). Рассмотрим особенности каждого из этих периодов:
- Восход надежд (On the rise/Technology trigger) — область концептуальных технологий, обладающих, по мнению аналитиков и разработчиков, наиболее высоким потенциалом. Их ценность, как правило, не вызывает вопросов, но они являются еще недостаточно зрелыми для привлечения больших инвестиций и внедрения в коммерческих продуктах.
- Пик завышенных ожиданий (At the peak/Peak of inflated expectations) — на этой стадии начинается массированная пропаганда преимуществ новой технологии в СМИ, привлекающая внимание общественности, а также потенциальных инвесторов и производителей. Стоит отметить, что подобные информационные кампании редко обходятся без явных спекуляций: аналитики с энтузиазмом пишут радужные отчеты о перспективах (зачастую умалчивая об уже известных недостатках и ограничениях) и прогнозируют вытеснение традиционных технологий по мере повсеместного внедрения новинки. Инвесторы, соблазненные грандиозными перспективами, начинают вкладывать средства в исследовательские работы и создание работающих прототипов; конкуренты, почуяв запах денег, предлагают собственные клоны данного решения. Как правило, основания для оптимизма в большинстве случаев действительно есть, однако их масштабы сильно преувеличены. Инвестиции на данном этапе рискованны, так как потенциал технологии может быть сильно переоценен. В некоторых случаях широко разрекламированное решение и вовсе оказывается пустышкой, сознательно раздутой для получения крупных грантов под те или иные исследования, представляющие интерес исключительно с точки зрения развития академической науки.
- Котловина разочарований (Sliding into the trough/Trough of disillusionment) — после относительно недолгого периода раскрутки новинка либо сходит со сцены, либо занимает свое место в существующей инфраструктуре рынка. Энтузиазм сходит на нет, незадачливые инвесторы подсчитывают убытки, аналитики пишут отчеты о причинах неудач, а в глазах конечных пользователей широко разрекламированное решение теряет свою привлекательность. На этой стадии формируется негативное отношение к технологии, которая, с одной стороны, уже утратила статус новинки, а с другой — еще не продемонстрировала инвесторам и потенциальным пользователям свои убедительные преимущества по сравнению с существующими решениями. В процессе тестирования первых прототипов выявляется ряд существенных недостатков, которые отпугивают заинтересованных производителей. Мыльный пузырь, раздутый прессой вокруг перспективной разработки, лопается. Количество публикаций и упоминаний резко идет на убыль, и у многих создается впечатление, что данная технология ушла со сцены. Однако этот этап может оказаться наиболее привлекательным для инвесторов, так как перспективы применения данной технологии постепенно проясняются, а разработчик (или обладатель прав на изобретение), в связи со спадом интереса к технологии, становится более сговорчивым.
- Подъем жизнестойкости (Climbing the slope/Slope of enlightenment) — начинается новая стадия исследований, в ходе которой разработчики устраняют выявленные ранее недостатки, а также оптимизируют технологический процесс с учетом требований серийного производства. Начинается внедрение технологии в коммерческих продуктах. По мере роста количества пользователей и примеров успешной реализации данного решения наступает признание — сначала в среде специалистов, а затем и общественности. Инвестиции на данном этапе наименее рискованны, однако именно в этот момент крупные игроки соответствующего сегмента рынка стремятся поглотить небольшую компанию, сумевшую довести перспективную разработку до стадии серийного или предсерийного производства, — иногда для того, чтобы внедрить данную технологию в собственных изделиях, а в некоторых случаях, чтобы устранить потенциального конкурента и предать оригинальное изобретение забвению. Иногда небольшие компании-разработчики на этом этапе трансформируются в акционерные общества и входят в альянсы с одним или несколькими крупными игроками соответствующего сегмента рынка.
- Плато продуктивности (Entering the plateau/Plateau of productivity) — на этой стадии технология выходит на промышленный уровень и становится стабильно прибыльной, универсальной, общепризнанной и широко применяемой.
Стоит отметить, что развитие технологий по описанной модели в разные периоды происходит с различной скоростью. Более того, вовсе не обязательно, чтобы какая-то отдельно взятая технология последовательно проходила все пять этапов. Некоторые способны перескочить через тот или иной этап, в то время как другие периодически возвращаются на исходные позиции и начинают свой путь заново (такой цикл может повторяться несколько раз). Подобное происходило со многими технологиями — от распознавания рукописного ввода (сделав крупные инвестиции в ее развитие, компании из калифорнийской Кремниевой долины потеряли в общей сложности порядка миллиарда долларов) до Интернета (вспомните массовое разорение владельцев доменов зоны «.com»). Однако сегодня решения, которые когда-то уже вызывали разочарование (о чем все уже забыли), вновь обретают популярность.
Графическое представление модели Hype Cycle
Многие считают, что в современных условиях залогом успеха является первенство выхода на рынок с какой-то новой идеей или изобретением. Но в реальности рыночная ниша для новой технологии очень часто оказывается слишком узкой, а компании-производители, ухватившиеся за «перспективную» разработку и вложившие в ее развитие свои средства, слишком поздно это понимают. В ряде случаев потенциальные клиенты и партнеры оказываются просто не готовыми к применению новых технологий.
Более того, даже если ниша достаточно велика и рынок готов к принятию новой идеи, то разработчикам необходимо отразить атаки конкурентов, работающих над воплощением похожих решений. Компании, которые не могут постоянно разрабатывать новые способы эффективного использования своих ресурсов, отбрасываются на обочину рынка, где им остается бороться только за стремительно сокращающиеся рыночные ниши.
В этом обзоре мы рассмотрим технологии, которые упоминались аналитиками в 2008 году в числе наиболее перспективных.
Анализ бизнес-процессов и управление ими
Средства анализа бизнес-процессов
Моделирование и анализ бизнес-процессов используются совместно бизнес-пользователями и ИТ-специалистами с целью усовершенствования самих процессов и их ИТ-поддержки. В последние годы средства моделирования и анализа бизнес-процессов таких компаний, как IDS Scheer, Casewise, IBM, Microsoft и QPR, активно применяются как в проектах разработки и внедрения информационных систем, так и в проектах, посвященных анализу и совершенствованию процессов, разработке стратегии развития предприятий, совeршенствованию систем управления, разработке систем мотивации персонала.
К сожалению, в условиях экономического кризиса подобные проекты — это то, от чего многие компании вынуждены отказаться, оставив, возможно, подобную деятельность в минимальном объеме, необходимом для повышения эффективности управления в условиях недостаточной прибыли. Поэтому не исключено, что направление развития программного обеспечения для анализа бизнес-процессов может претерпеть определенные изменения, вызванные рыночной ситуацией, к примеру, за счет активного развития функциональности, ориентированной на разработку и внедрение информационных систем, либо за счет более гибкой лицензионной политики.
Управление бизнес-процессами
Управление бизнес-процессами — это один из современных принципов управления деятельностью компании, основанный на представлении деятельности в виде совокупности процессов, охватывающих разные подразделения. Хотя сам процессный подход к управлению предприятием не предполагает обязательного использования специализированных инструментов для управления бизнес-процессами, они, тем не менее, очень часто внедряются наряду с внедрением собственно процессного управления. Средства управления бизнес-процессами (называемые иногда workflow-системами) делают процессы прозрачными и позволяют получить их количественные характеристики. Указанные средства поддерживают всевозможные механизмы взаимодействия между исполнителями процесса и различные виды правил и алгоритмов выполнения процесса, содержат средства интеграции с бизнес-приложениями и офисным ПО, инструменты уведомления пользователей о задачах и событиях, а также средства моделирования выполнения процессов.
Средство моделирования и анализа бизнес-процессов
ARIS Business Architect (IDS Scheer)
Согласно прогнозам аналитиков, массовое применение подобных инструментов начнется только через несколько лет, хотя в таких секторах экономики, как телекоммуникации и финансовый сектор, они уже довольно активно применяются. В условиях экономического кризиса внедрение подобных приложений будет, по-видимому, продолжено, поскольку их применение позволяет существенно сократить затраты компаний на персонал.
Средство управления бизнес-процессами
Ultimus BPM Suite
Средства управления бизнес-правилами
Средства управления бизнес-правилами (Business Rule Engines) — это программное обеспечение, позволяющее определять, выполнять, проверять и поддерживать определенную бизнес-логику (называемую бизнес-правилами), описанную в виде деревьев решений, таблиц или иных способов описания алгоритмов. Средства управления бизнес-правилами обычно отделяют представление правил от механизмов их исполнения, позволяют находить несоответствия и противоречия в наборе правил, проверять их на полноту. Подобного рода средства могут существовать в виде как отдельных продуктов, так и составных частей другого программного обеспечения, например средств моделирования бизнес-процессов или бизнес-приложений. Применяются они, как правило, при принятии решений, основанных на соблюдении тех или иных правил.
Средство управления бизнес-правилами ARIS Business Rules Designer
(IDS Scheer)
В настоящее время интерес к подобным инструментам довольно высок, хотя до их массового применения во всех отраслях экономики еще далеко — пока наиболее очевидной сферой их использования являются крупные кредитные предприятия и финансовые учреждения. Тем не менее сегодня применение подобных инструментов не должно заметно снизиться, поскольку в условиях кризиса поддержка принятия решений по-прежнему важна.
Инфраструктура бизнес-приложений
Виртуализация
Виртуальные машины — это технология одновременного выполнения нескольких операционных систем на одном компьютере. Данная технология известна очень давно — виртуальные машины для мэйнфреймов (в том числе и для отечественных — серии ЕС ЭВМ) широко использовались еще в начале 80-х годов. Однако ее активное применение на платформах, отличных от мэйнфреймов, началось примерно семь-восемь лет назад — именно тогда появились первые средства создания виртуальных машин для Windows и Linux от компаний VMware и Connectix (впоследствии ставшей частью корпорации Microsoft). Возможность оптимизации затрат на аппаратное обеспечение в то время привлекала разработчиков ПО, специалистов по конфигурационному управлению, тестированию и внедрению приложений, поэтому пик популярности указанного направления был достигнут очень быстро, особенно в связи с тем, что в 2000-2001 годах начали появляться и первые серверные решения для виртуализации.
Данное направление весьма привлекательно для многих компаний вследствие того, что им предоставляется возможность существенного снижения совокупной стоимости владения ИТ-инфраструктурой, и за прошедший год интерес к нему резко возрос в связи с появлением множества надежных и защищенных решений на основе технологий виртуализации — от Windows Azure и гипервизоров от разных производителей до решений с открытым кодом. Можно предположить, что интерес к этому направлению в условиях экономического кризиса будет расти и дальше, поскольку применение виртуализации может быть весьма эффективным способом снижения затрат на ИТ-инфраструктуру.
VMWare Workstation
Архитектура, управляемая моделью
Архитектура, управляемая моделью (Model-Driven Architecture, MDA), представляет собой предложенный консорциумом Object Management Group подход к отделению бизнес-функциональности приложений от технических особенностей их реализации. Данный подход основан на описании функциональности с помощью модели (например, UML-модели) и чтении этой модели с целью реализации описанной в ней функциональности на этапе выполнения приложения. В настоящее время к подобной технологии наблюдается повышенный интерес, что проявляется в появлении ее множественных реализаций, в том числе и от таких известных производителей ПО, как Microsoft. Это означает, что активное использование подобной технологии может начаться достаточно быстро, и экономический кризис вряд ли окажет существенное влияние на ее развитие.
Архитектура, ориентированная на сервисы
Архитектура, ориентированная на сервисы (Service-Oriented Architecture, SOA), — это архитектура распределенных приложений, основанная на применении разделяемых интерактивных модулей, доступных в масштабе предприятия (а возможно, и за его пределами), обрабатывающих запросы с помощью стандартных интерфейсов. Толчком к развитию данного семейства технологий послужило развитие веб-служб, быстрое появление индустриальных стандартов в этой области и интерес крупных корпоративных пользователей к веб-службам как к реальному способу обеспечения интеграции между технологически несовместимыми приложениями и платформами. Одним из преимуществ применения SOA является сокращение времени и стоимости адаптации ИТ-инфраструктуры и приложений к изменяющимся бизнес-процессам по сравнению с традиционными архитектурами.
Visual Studio 2008
В условиях экономического кризиса использование архитектуры, ориентированной на сервисы, может стать более популярным за счет пересмотра ИТ-стратегий в компаниях, на развитие которых кризис оказал негативное влияние, в пользу сохранения унаследованных несовместимых платформ и решений даже при наличии определенных технических трудностей при внедрении.
J2EE
Java 2 Platform, Enterprise Edition (J2EE) — разработанная компанией Sun Microsystems платформа для создания многозвенных бизнес-приложений с высокими требованиями к надежности и переносимости, которые выполняются под управлением различных операционных систем и используют в качестве инфраструктурного ПО серверы приложений, предоставляющие несколько стандартных программных интерфейсов для выполнения бизнес-объектов (таких как сервлеты, компоненты Enterprise JavaBeans и пр.).
Архитектура J2EE-приложений
В данный момент J2EE широко применяется в корпоративных решениях ведущих производителей ПО, в том числе IBM, Oracle, Novell, обеспечена достаточным количеством стандартов и поддерживается сообществом разработчиков с открытым кодом. Фактически эта технология уже находится на плато продуктивности, и экономический кризис не должен оказать существенного влияния на ее популярность.
Microsoft .NET
Microsoft .NET представляет собой платформу для разработки бизнес-приложений масштаба предприятия и web-приложений с высокими требованиями к надежности, входящую в состав последних версий операционных систем семейства Windows и некоторые другие решения для распределенных вычислений (Wndows Azure, Silverlight 2). На ее реализацию определенное влияние оказала платформа J2EE — при создании .NET в Microsoft постарались учесть многие ее недостатки, например использование единственного языка программирования.
Активное применение и рост популярности этой платформы ни у кого уже не вызывает сомнений — несмотря на доступность только для одного семейства операционных систем, указанная технология поддерживается ведущими производителями бизнес-приложений. Окончательный выход этой платформы на плато продуктивности можно ожидать в ближайшие год-два, и, как и в случае платформы J2EE, экономический кризис не должен оказать заметного влияния на этот процесс.
Cloud Computing
Термином Cloud Computing называют архитектуру приложений, основанную на их выполнении на серверах удаленных центров обработки данных (в так называемом облаке). При использовании подобной архитектуры поставщик приложений обычно предоставляет набор служб для доступа к функциональности приложений, хранения данных, а нередко и для внедрения в «облако» собственных приложений. Подобная архитектура приложений стала применяться в последние два года в основном компаниями, лидирующими в области присутствия в Интернете (такими как Google и Amazon), а в последнее время данной концепции особое внимание уделяют и такие лидеры рынка ПО, как Microsoft, анонсировавшая недавно собственную среду исполнения «облака» — Windows Azure.
Перенос приложений в «облако» позволяет отказаться от локальных серверов и тем самым сократить затраты на аппаратное обеспечение и обслуживание приложений. Есть предположение, что компании пойдут на использование подобной архитектуры по разным причинам, таким как обеспечение надежности и защиты данных, преодоление проблем, связанных с ограничениями в законодательствах разных стран, упрощение развертывания приложений и обеспечение доступа к ним из разных мест. Не исключено, что применение подобных технологий в условиях кризиса для многих компаний может оказаться весьма привлекательной альтернативой развитию собственной ИТ-инфраструктуры.
Управление данными
Архитектуры, основанные на службах данных
Архитектуры, основанные на службах данных (Data Service Architectures), представляют собой способ организации доступа к данным, в котором их местоположение, способ хранения и механизм доставки скрыты от конечного пользователя. Подобная стратегия доступа к данным представляет собой разновидность архитектуры, ориентированной на сервисы (Service Oriented Architecture), причем подавляющее большинство производителей СУБД и ПО промежуточного слоя, например Business Objects, IBM, Oracle и Microsoft, уже объявили о своих стратегических планах развития данного направления. Так, службы данных Microsoft SQL Services являются частью анонсированной этой компанией технологии Windows Azure.
Хранилища данных бизнес-приложений
Хранилища данных бизнес-приложений (Business Application Data Warehouses) представляют собой средства бизнес-анализа и хранения необходимых для его осуществления данных, встроенные в бизнес-приложения или предлагаемые производителями бизнес-приложений в качестве отдельного модуля. Как правило, подобные модули включают средства извлечения данных из оперативных БД, готовые модели данных для создания хранилищ, предварительно настроенные шаблоны отчетов, готовые запросы, OLAP-кубы, ключевые показатели результативности, бизнес-правила и алгоритмы выполнения бизнес-процессов. В последнее время было проведено немало проектoв внедрения подобных хранилищ, в основном входящих в состав бизнес-приложений SAP и Oracle. Однако такие проекты могут оказаться слишком дорогими, и в условиях кризиса компании обратят внимание на менее эффективные, но более дешевые реализации OLAP-функциональности.
Утилита администрирования средства управления
информационным наполнением Documentum
Linux как платформа для СУБД
Linux как платформа для СУБД используется достаточно давно, но в последнее время интерес к подобному применению этой платформы заметно возрос благодаря серьезным вложениям в него со стороны производителей СУБД (Oracle, IBM, Sybase, Teradata) и поставщиков аппаратно-программных решений (Dell, HP, IBM), выразившимся в появлении на рынке широкого спектра протестированных и сертифицированных серверных конфигураций на основе Linux для конкретных СУБД.
Одной из основных причин использования Linux как платформы для СУБД является относительно невысокая совокупная стоимость владения подобными серверами по сравнению с Windows- и UNIX-платформами. В условиях экономического кризиса интерес к Linux как к платформе для СУБД может возрасти, поскольку ее применение снижает стоимость внедрения решений, основанных на применении СУБД, однако рост может оказаться не слишком заметным вследствие затрат на персонал, обладающий навыками администрирования подобных решений.
Управление информационными активами предприятия
Управление информационными активами предприятия (Enterprise Information Management) представляет собой структурирование, описание и сопровождение информации, принадлежащей компании независимо от технологической реализации ее хранения с целью повышения эффективности деятельности компании. Сегодня многие компании испытывают проблемы с поиском и применением уже имеющейся у них информации, что крайне негативно отражается на эффективности их работы.
Отметим, что хотя производители программного обеспечения нередко используют термин «управление информационными активами предприятия» в маркетинговых целях, реальное осуществление подобного управления требует не столько внедрения какого-либо продукта, сколько выполнения комплекса мероприятий и создания и соблюдения определенных правил (что, тем не менее, не исключает применения каких-либо продуктов и технологий). В условиях экономического кризиса интерес к управлению информационными активами может возрасти, поскольку массовое сокращение персонала в компаниях несет риск утраты части знаний и компетенций.
Google Apps
Управление информационным наполнением
Управление информационным наполнением (Enterprise Content Management, ECM) — это комплекс мероприятий, направленный на организацию хранения, доступа и применения неструктурированного информационного наполнения (документов, изображений, мультимедиаданных, форм и т.д.). Для решения подобных задач на рынке имеется немало инструментов, однако их внедрение обычно сопряжено с организационными сложностями, такими как конфликты интересов разных потребителей контента, проблемы с правами на те или иные данные, а также проблемы организации соответствующей инфраструктуры.
В условиях экономического кризиса интерес к управлению информационным наполнением может снизиться, поскольку проекты внедрения подобных решений обычно оказываются весьма дорогостоящими.
Средства повышения эффективности работы и поддержки принятия решений
Технологии поиска в медиаданных
Поиск в медиаданных (Rich-Media Search) предполагает индексирование аудио- и видеоданных, доступных в Интернете, в базах данных и в файловой системе, либо с применением связанных с этими данными специальных тэгов, либо с помощью анализа самих данных. Пока используемые для решения этой задачи технологии недостаточно развиты, однако в некоторые из них, таких как распознавание речи, поиск субтитров в видеоданных и поиск в web-страницах, вкладываются немалые средства, поскольку эти технологии могут стать факторами успеха поисковых и мультимедийных порталов. В последнее время такие технологии развиваются довольно активно, и маловероятно, что экономический кризис существенно повлияет на их развитие.
Открытые форматы офисных документов (Open XML, OpenDocument)
Office Open XML File Formats (OOXML) — открытая спецификация формата документов, основанного на применении XML и используемого в приложениях семейства Microsoft Office 2007. Open Document Format for Office Applications (стандарт ISO/IEC 26300) — это открытая спецификация формата офисных документов, разработанная сообществом OpenOffice.org. В настоящее время рядом компаний, включая Microsoft и Novell, ведутся работы по обеспечению совместимости форматов и созданию конверторов между форматами, и многие компании производят библиотеки для создания решений, включающих генерацию документов обоих форматов. Влияние указанных спецификаций на будущее развитие офисных приложений и других решений очень высоко, и, учитывая огромную популярность Microsoft Office в нашей стране, в ближайшее время следует ожидать широкого распространения OOXML. Воздействие экономического кризиса на этот процесс представляется минимальным.
Офисные пакеты на основе Web 2.0
Офисные пакеты на основе Web 2.0 (Web 2.0 Office Productivity Suites) — это наборы приложений для решения таких задач, как подготовка документов, работа с электронными таблицами, создание презентаций, организация коллективной работы и обмена почтовыми сообщениями. Обычно для этой цели применяются настольные приложения, такие как продукты семейств Microsoft Office, Corel WordPerfect, OpenOffice.org. Пакеты на основе Web 2.0 представляют собой веб-приложения, обеспечивающие сходную функциональность. Подобные приложения стали доступны в течение последних нескольких месяцев; впрочем, на данный момент они отнюдь не дублируют функциональность настольных офисных приложений, а скорее позволяют решать более узкие задачи. Одна из самых популярных реализаций данной технологии — Google Apps.
Хотя указанные технологии приобретают определенную популярность, не стоит ожидать ни вытеснения ими настольных приложений еще как минимум в течение нескольких лет, ни какого бы то ни было влияния экономического кризиса на этот процесс.
Платформы для бизнес-анализа
Платформы для бизнес-анализа (Business Intelligence Platforms) представляют собой основу для построения аналитических приложений, включающих онлайновую аналитическую обработку данных, их анализ, представление результатов анализа в виде отчетов и информационных панелей, интеграцию с другими приложениями. Сегодня на рынке доступны платформы бизнес-анализа многих известных производителей, таких как Business Objects, Hyperion, Microsoft, Oracle, SAP, SAS, а также множество решений на их основе для различных отраслей, однако эта область продолжает быстро развиваться под влиянием новых технологий и концепций.
На развитие самих платформ бизнес-анализа экономический кризис вряд ли окажет заметное влияние, по крайней мере в ближайшие годы. Однако проектов по внедрению решений на их основе станет, видимо, гораздо меньше.
Excel как клиентская часть аналитических приложений
Будучи одним из самых популярных офисных приложений, Excel сегодня привлекает пристальное внимание производителей средств и платформ бизнес-анализа как универсальное клиентское средство представления и анализа данных. Большинство поставщиков подобных платформ предоставляют дополнительные модули для Excel, предназначенные для отображения и анализа данных, доступных с помощью этих платформ.
Платформа бизнес-анализа на основе аналитических служб SQL Server
Выход Excel 2007, появление служб Excel Services, а также выпуск средства анализа данных PerformancePoint Server во многом способствовали росту применения Excel как составной части аналитических решений и качественного изменения принципов анализа данных во многих компаниях.
Excel как клиентская часть аналитического приложения на основе SQL Server
Учитывая огромную популярность Excel и относительно невысокую стоимость решений на его основе, следует ожидать роста интереса к этому продукту как к клиентской части аналитических приложений в качестве альтернативы более дорогим решениям.
Программное обеспечение для информационной безопасности
Управление цифровыми правами
Управление цифровыми правами в корпоративном секторе (Digital Rights Management, DRM) — это предотвращение неавторизованного доступа к данным, содержащимся в документах, путем запрета их просмотра, копирования, редактирования, печати и отправки по электронной почте. Подобные технологии стали доступны в 2003 году, после появления их первых реализаций от Microsoft и Adobe. Сегодня службы Microsoft Rights Management Services поддерживаются операционными системами Windows Server 2003, Windows Server 2008, Windows XP Professional и Windows Vista. Тем не менее в корпоративном секторе в ближайшие годы не следует ожидать активного массового использования подобных технологий, и экономический кризис вряд ли существенно повлияет на этот процесс.
Управление цифровыми правами на рынке приложений для домашнего применения заключается в запрете от неавторизованного использования данных, защищенных авторскими правами (таких как музыкальные произведения, книги и журналы). В отличие от корпоративного сектора, на рынке приложений для домашних пользователей подобные технологии (такие, например, как FairPlay DRM от компании Apple, предназначенные для пользователей службы iTunes, а также технологии аналогичного назначения компаний Macrovision, Microsoft, Sony) применяются весьма активно. Впрочем, объемы продаж защищенного цифрового контента в условиях экономического кризиса могут снизиться.
Управление идентификацией
Распределенное управление идентификацией (Federated Identity Management) позволяет использовать общие идентификационные данные для доступа к разным серверам, службам и доменам благодаря обмену идентификационными сведениями между ними. Сегодня с появлением таких технологий, как Security Assertion Markup Language (SAML) и Active Directory Federation Services (ADFS), а также сходных по назначению технологий компаний Computer Associates, EMC, HP, IBM, Novell, Oracle, Sun Microsystems и Microsoft, к ним проявляют интерес многие компании, в особенности территориально распределенные предприятия с большим количеством удаленных пользователей или с подразделениями, способными функционировать самостоятельно. В последнее время также наблюдается тенденция аутсорсинга служб управления идентификацией и применение технологий под общим названием claims-based access — доступ по требованию. Маловероятно, что экономический кризис повлияет на развитие этого направления.
Доступ с помощью единой «точки входа»
Доступ с помощью единой «точки входа» (Enterprise Single Sign-On) — это возможность доступа к различным информационным системам, ресурсам и приложениям путем однократной идентификации. Средства обеспечения подобного способа доступа применяются довольно активно, поскольку во многих компаниях они значительно уменьшают стоимость обслуживания пользователей за счет снижения количества обращений в службы технической поддержки, а также повышают эффективность работы самих пользователей. Маловероятно, что экономический кризис затронет развитие этого направления.
Мониторинг и предотвращение активности приложений
Технологии мониторинга и предотвращения активности приложений (Application Activity Monitoring and Prevention), такие как взаимодействие с пользователем, выполнение транзакций и т.д., предназначены для выявления и предотвращения подозрительных действий, не соответствующих политике безопасности. Эти технологии основаны на широко известных технологиях перехвата сетевого трафика, применяемых совместно с методами анализа, используемыми в ряде аналитических платформ. В настоящее время наблюдается бурный рост интереса к подобных технологиям, в первую очередь за счет активного рыночного спроса на них, и в условиях кризиса он может увеличиться вследствие роста криминальной активности в Интернете.
Управление доступом к сети
Процесс управления доступом к сети (Network Access Control) предназначен для проверки состояния безопасности подключаемого к сети устройства, мониторинга уже подключенных устройств и генерации политик безопасности по отношению к устройствам на основе их состояния. Технология находится на этапе восхода надежд — уже есть ее первые промышленные реализации, такие как Cisco NAC, и в силу интереса к ней корпоративных заказчиков она может достичь пика завышенных ожиданий довольно быстро. Влияние кризиса на развитие этих технологий не должно быть существенным.
Программное обеспечение с открытым кодом
Серверы приложений Java EE с открытым кодом (Open-Source Java EE Application Servers)
К серверам приложений Java EE с открытым кодом (Open-Source Java EE Application Servers) относятся серверы приложений, прошедшие тест на совместимость с требованиями спецификации Java 2 Enterprise Edition и распространяемые по лицензии OpenSource. В настоящий момент эти серверы представляют собой весьма серьезную альтернативу коммерческим серверным платформам, как поддерживающим спецификацию J2EE, так и основанным на других технологиях, например Microsoft .NET, Zend PHP и Adobe ColdFusion. Из серверов приложений Java EE с открытым кодом сегодня широко применяются Red Hat JBoss и Apache Tomcat, однако это не единственные доступные продукты подобного класса.
Интерес к подобным технологиям в условиях кризиса может возрасти за счет невысокой стоимости внедрения решений на основе подобных серверов.
Серверные операционные системы с открытым кодом
Серверные операционные системы с открытым кодом представляют собой свободно распространяемое программное обеспечение, вследствие доступности исходного кода постоянно совершенствуемое сообществом разработчиков. Из наиболее известных операционных систем подобного класса следует отметить GNU/Linux (дистрибутивы компаний Red Hat, Novell, Oracle, Ubuntu и ряда других производителей), FreeBSD, OpenSolaris, OpenBSD и NetBSD. Благодаря участию в создании и поддержке подобных операционных систем лидеров рынка программного обеспечения, таких как Novell, Oracle, HP, IBM, SGI и Unisys, сейчас они широко применяются в качестве серверных платформ для кластерных СУБД, веб-приложений, корпоративных серверов приложений и файловых серверов на различных аппаратных платформах. Интерес к подобным технологиям в условиях кризиса может возрасти за счет невысокой стоимости внедрения решений на основе подобных серверов.
Apache Tomcat Application Server
Linux как серверная платформа
Linux представляет собой одну из самых популярных операционных систем с открытым кодом. Во многих компаниях эта операционная система используется в качестве файловых серверов и серверов печати как альтернатива NetWare или Windows. Помимо этого Linux нередко применяется как платформа для серверных СУБД, веб-приложений, J2EE-решений, в том числе для приложений с высокими требованиями к надежности и доступности — возможность подобного применения, в том числе на кластерах серверов, подтверждается многочисленными результатами независимого тестирования. Интерес к данной операционной системе в условиях кризиса может возрасти за счет невысокой стоимости внедрения решений с применением серверных версий Linux, однако этот рост может оказаться не слишком значительным из-за затрат на персонал, имеющий навыки администрирования подобных решений.
Linux как корпоративная настольная ОС
Будучи весьма популярной в качестве серверной платформы, Linux как настольная ОС используется редко. Тем не менее низкая совокупная стоимость владения рабочими местами на основе Linux может сделать эту платформу привлекательной в тех случаях, когда потребность в применении Windows-приложений на рабочих местах пользователей ограничена, а необходимость миграции с Windows-платформ отсутствует (например, для автоматизации ранее неавтоматизированной деятельности). Интерес к данной операционной системе в условиях кризиса может возрасти за счет низкой стоимости внедрения решений на ее основе.
Ubuntu Linux
Средства разработки с открытым кодом (Open-source application development tools)
Средства разработки с открытым кодом, а именно инструменты для проектирования, создания, тестирования и отладки приложений, существуют много лет. Однако если несколько лет назад подобные средства в основном представляли собой инструменты для решения небольших специализированных задач (компиляторы, отладчики и пр.), то сегодня среди подобных инструментов существуют комплексные среды разработки, не уступающие по своим возможностям коммерческим продуктам.
Среда разработки Eclipse
Наибольшее влияние на развитие рынка подобных инструментов оказал проект Eclipse, результатом которого стала расширяемая многофункциональная среда разработки для создания распределенных приложений, используемая не только разработчиками, но и многими производителями коммерческих инструментов в качестве основы их продуктов.
Помимо Eclipse из средств разработки с открытым кодом популярна также среда NetBeans. Хотя средства моделирования и тестирования с открытым кодом пока еще не столь развиты, как средства создания приложений, следует ожидать расширения сферы применения всех категорий инструментов с открытым кодом, хотя влияние кризиса на этот процесс представляется минимальным.
Управление предоставлением ИТ-услуг
Такая область, как управление предоставлением ИТ-услуг, включает методологии подобного управления, а также программное обеспечение для его поддержки. ITIL и CobiT, например, по сути представляют собой не что иное, как наборы рекомендаций, планов действий и организационных мер. Однако актуальность их достаточно высока вследствие неплохих эффектов от внедрения и применения во многих компаниях.
CobiT
Control Objectives for information and related Technology (CobiT) — набор процессов для формирования целей ИТ и аудита ИT-услуг с целью проверки их соответствия требованиям компании. Позволяет сформировать критерии оценки эффективности оказания ИТ-услуг и деятельности ИТ-подразделений и внешних компаний, оказывающих ИТ-услуги применительно к достижению целей основного бизнеса компании. Влияние кризиса на применение CobiT представляется минимальным, хотя проекты внедрения этих процессов в период кризиса будут реализовываться в компаниях скорее своими силами, нежели силами консалтинговых компаний.
Information Technology Infrastructure Library
Information Technology Infrastructure Library (ITIL) — библиотека передового опыта оказания ИТ-услуг, содержащая подробное описание наиболее важных процессов и видов деятельности в работе ИТ-подразделения, а также полный перечень сфер ответственности, задач, процедур, описаний процессов и списков действий, которые могут быть адаптированы для любой организации.
Рекомендации ITIL применяются во многих крупных компаниях, поскольку позволяют упорядочить и формализовать взаимодействие между поставщиками и потребителями ИТ-услуг. Впрочем, пик интереса к ITIL уже прошел, и данное направление движется к впадине разочарований. Причиной тому является то, что рекомендации ITIL уже учтены во многих продуктах для управления ИТ-инфраструктурой (HP OpenView, IBM Tivoli и др.) и именно к реализациям идей ITIL и конкретным проектам внедрения подобного ПО интерес заказчиков оказывается гораздо выше, нежели к самой библиотеке ITIL. Влияние кризиса на интерес к ITIL представляется минимальным.
Средства управления портфелями ИТ-услуг
Средства управления портфелями ИТ-услуг (IT Service Portfolio Management Tools) предназначены для каталогизации стандартизованных ИТ-услуг и поддерживающих их архитектур, контрактов с поставщиками ИТ-услуг, автоматизации потоков работ, связанных с их предоставлением. Кроме того, они могут включать функциональность средств управления информационными активами и средств категории Service Desk. Рост интереса к подобным средствам обусловлен тем, что в условиях роста популярности аутсорсинга ИТ-услуг данная категория ПО, будучи еще одной реализацией идей ITIL, позволит обеспечить поддержку процессов ITIL, не требуя внедрения избыточных и дорогостоящих решений по управлению всей инфраструктурой, что может оказаться интересным для широкого круга компаний, не работающих в ИТ-сфере и не имеющих собственной развитой ИТ-инфраструктуры, но пользующихся ИТ-услугами других организаций.
Процессы ITIL
Интерес к подобным услугам в условиях кризиса может возрасти за счет возможности снизить затраты на собственную ИТ-инфраструктуру.
Управление приложениями
Управление приложениями (Application Management) — это управление производительностью, доступностью, конфигурациями приложений, основанных на различных технологиях и платформах. Рост интереса к данному виду инфраструктурного ПО обусловлен усложнением ИТ-инфраструктуры многих компаний и возросшими требованиями к его поддержке, своевременному обновлению, безопасности и совместимости различных компонентов. На данный момент имеется достаточное количество решений подобного класса от HP, IBM, Microsoft, BMC и других компаний, и пик интереса к ним уже близок. Тем не менее интерес к внедрению подобных средств в период кризиса может снизиться, поскольку проекты их внедрения, как правило, весьма дорогостоящие.
Управление приложениями с помощью
HP OpenView Operations Manager
Web-технологии
Web-технологии — одно из самых быстроразвивающихся семейств технологий с быстро расширяющейся сферой применения. К наиболее интересным в плане влияния на всю индустрию технологий данного класса, относящихся к области корпоративного ПО, следует причислить ряд идей под общим названием AJAX, касающихся создания веб-приложений, а также продукты для разработки корпоративных веб-решений путем внедрения готовых приложений для создания корпоративных и интернет-порталов.
AJAX
AJAX (Asynchronous JavaScript and XML) — это принцип создания веб-приложений, заключающийся в том, что нет необходимости в полной перезагрузке веб-страницы в ответ на каждое действие пользователя — с веб-сервера догружаются только нужные пользователю данные. Этот принцип реализуется путем генерации на сервере динамического HTML и соответствующего кода на скриптовых языках для выполнения в клиентском приложении с помощью большинства доступных сегодня серверных технологий (PHP, ASP .NET 2.0, Ruby on Rails и пр.). Сегодня он применяется во многих средствах разработки. Влияние кризиса на развитие этого направления представляется минимальным.
Mashup
Mashup — это интеграция информации, полученной из разных источников, с помощью быстро создаваемых простых приложений, основанных на клиентских или серверных веб-технологиях. Подобный способ создания приложений позволяет значительно снизить стоимость разработки веб-приложений за счет использования уже готовых сервисов, доступных на рынке онлайновых услуг (таких как Google Maps или сходные по назначению отечественные сервисы, оглавления новостных сайтов, сведения о курсах валют).
Пример использования Mashup
Хотя подобные приложения серьезно зависят от надежности используемых в них компонентов и сервисов, интерес к ним быстро растет, и в ближайшие годы следует ожидать широкого применения подобных технологий, в том числе с использованием средств персонализации, а также увеличения количества повторно применяемых сервисов. Влияние кризиса на развитие этого направления представляется минимальным.
Корпоративные порталы
Портал — это набор инфраструктурных веб-приложений для персонализованного доступа к информационным активам предприятия (данным, документам, бизнес-приложениям). Это направление находится в стадии подъема жизнестойкости: будучи популярным на рынке корпоративного ПО уже несколько лет, оно неуклонно движется к плато продуктивности за счет того, что корпоративные порталы сегодня внедряют даже небольшие компании, а на рынке ПО предлагается много разнообразных решений для их быстрого развертывания, а также достаточно поставщиков соответствующих услуг. Хотя в условиях кризиса развитие корпоративных порталов в ряде компаний может на какое-то время замедлиться, в целом влияние кризиса на развитие этого направления представляется незначительным.
Управление информационным наполнением веб-сайтов
Управление информационным наполнением веб-сайтов (Web Content Management) осуществляется с помощью специализированных средств. В большинстве случаев средства управления информационным наполнением веб-сайтов и веб-порталов позволяют осуществлять централизованное управление хранимыми данными (чаще всего фрагментами документов) и их изменением, отделение содержания от представления (то есть от дизайна сайта), автоматизацию управления жизненным циклом данных и связанных с ними потоками работ, применение их разными пользователями для решения различных задач. В условиях кризиса компании будут отдавать предпочтение тем решениям, стоимость внедрения и сопровождения которых минимальна.
Электронные дисплеи
Дисплеи, проецирующие изображение на сетчатку
Аппараты, позволяющие при помощи лазерного луча малой мощности проецировать изображение непосредственно на сетчатку глаза (Virtual Retinal Display, VRD), являются одним из перспективных направлений развития электронных дисплеев, особенно применительно к использованию в мобильных устройствах. Благодаря небольшим размерам и отсутствию громоздкого экрана, VRD-проектор можно встраивать в одежду и специальную экипировку (очки, шлемы и т.д.). Кроме того, важным преимуществом данной технологии является возможность проецировать изображение, угловые размеры которого практически целиком охватывают угол зрения.
Изображение в VRD-устройствах формируется последовательно (пиксел за пикселом) при помощи устройства развертки: луч лазера с большой скоростью «прорисовывает» строки пикселов изображения аналогично тому, как это происходит в лазерном принтере. Один из первых прототипов монохромного VRD-дисплея был создан сотрудниками лаборатории пользовательского интерфейса Вашингтонского университета в 1991 году.
Принцип работы цветного VRD-дисплея
На современном этапе технически возможно создание VRD-дисплеев, проецирующих монохромные и цветные изображения с разрешающей способностью порядка 800x600 пикселов. Для формирования цветного изображения используются три лазера (красный, зеленый и синий), лучи которых совмещаются при помощи специальной оптической системы. В настоящее время модули VRD-дисплеев, в которых применяются полупроводниковые лазеры и устройство развертки с микроэлектромеханическим приводом (MEMS), выпускает компания Microvision.
Размеры модуля VRD-дисплея позволяют встраивать его в очки
По мнению экспертов, полноценное применение данной технологии в коммерческих устройствах станет возможным при достижении уровня разрешающей способности порядка 4000x3000-8000x6000 пикселов.
OLED- и LEP-дисплеи
OLED и LEP — родственные технологии, позволяющие создавать излучающие электронные дисплеи на базе люминесцирующих материалов.
OLED (Organic Light Emitting Diode) — это светодиоды на основе органических материалов. Первыми проводить исследования в данной области начали в конце 80-х годов прошлого века сотрудники компании Eastman Kodak.
LEP (Light Emitting Polymer) — это светоизлучающие полимеры, впервые синтезированные учеными Кембриджского университета. Впоследствии разработками в данном направлении стала заниматься компания Cambridge Display Technology.
Принципиальное отличие OLED- и LEP-дисплеев от устройств на базе ЖК-технологии заключается в использовании органических веществ, излучающих свет под воздействием электрического поля (в ЖК-дисплеях свет, излучаемый лампой подсветки, проходит через ячейки ЖК-матрицы и светофильтры). Благодаря этой особенности в OLED- и LEP-дисплеях нет необходимости применять лампу подсветки, поляризующие пленки и ряд других компонентов, являющихся обязательными элементами ЖК-устройств. За счет более простой структуры OLED-дисплеи можно сделать чрезвычайно тонким и легкими. Кроме того, они могут работать от меньшего (по сравнению с ЖК-панелями) напряжения, обладают низким уровнем энергопотребления и выделяют незначительное количество тепла.
Схема устройства OLED-дисплея
По качеству изображения OLED-технология также превосходит ЖК, обеспечивая более высокие яркость и контрастность, а также очень большой эффективный угол обзора (до 180° как в горизонтальной, так и в вертикальной плоскости) без заметных искажений цветопередачи. При этом полноцветные OLED-дисплеи имеют цветовой охват на уровне хороших ЭЛТ-мониторов и обеспечивают гораздо более точное воспроизведение цветов, чем современные модели ЖК-мониторов.
Использование люминесцирующих материалов в перспективе позволит сделать апертуру пиксела OLED-дисплея практически равной 1 (то есть эффективная площадь пиксела будет равна его полной площади), что в принципе невозможно в случае ЖК-технологии. Дополнительным преимуществом OLED-дисплеев является чрезвычайно малое время реакции пикселов (у существующих прототипов — порядка десятков микросекунд), причем практически не зависящее от температуры (в отличие от ЖК-дисплеев, OLED- и LEP-устройства не «замерзают» при низкой температуре).
Прототипы цветных OLED-дисплеев
OLED-технология особенно привлекательна для создания дисплеев небольшого размера, поскольку имеет значительно более высокий (по сравнению с ЖК) потенциал для увеличения разрешающей способности (на нынешнем этапе — до нескольких сотен пикселов на дюйм).
В настоящее время на базе технологий OLED и LEP технически возможно создание монохромных, многоцветных и полноцветных дисплеев с активной либо пассивной матрицей.
У OLED- и LEP-дисплеев есть ряд недостатков, которые пока ограничивают сферу их применения в серийно выпускаемых устройствах. В частности, органические молекулярные и полимерные светоизлучающие материалы быстро разрушаются под воздействием содержащегося в воздухе кислорода и водяных паров, поэтому для обеспечения приемлемой (с точки зрения коммерческого использования) долговечности необходима полная герметизация начинки дисплейной панели. Кроме того, органические светоизлучающие материалы постепенно деградируют в процессе работы — это проявляется в уменьшении их эффективности (падении яркости при заданном напряжении питания) и изменении спектральных характеристик. Одним из наиболее актуальных на данный момент направлений работы в области совершенствования OLED- и LEP-дисплеев является создание более долговечных излучающих материалов.
В настоящее время OLED-дисплеи небольшого размера широко применяются
в портативных электронных устройствах
Работы в области создания и производства OLED- и LEP-дисплеев, а также оптимизации характеристик органических светоизлучающих материалов в настоящее время ведут компании Cambridge Display Technologies (CDT), DuPont, Eastman Kodak, LG Electronics, Philips, Pioneer, RiTdisplay, Samsung SDI, Sanyo Epson Imaging Device Corporation, Sony, Toshiba и Universal Display Corporation.
В настоящее время OLED- и LEP-дисплеи небольших размеров используются в целом ряде моделей серийно выпускаемых электронных устройств, таких как автомагнитолы, портативные медиаплееры, сотовые телефоны и пр. В 2008 году были выпущены и первые коммерческие продукты с OLED-дисплеями среднего размера, предназначенные для стационарного применения. Так, в начале минувшего года компания Sony анонсировала первый в мире серийно выпускаемый телевизор, оснащенный OLED-панелью (модель XEL-1). Экранный модуль этого телевизора обеспечивает превосходное качество изображения и широкий угол обзора, а его толщина составляет всего 3 мм. На проходившей в сентябре выставке Photokina 2008 компания Eastman Kodak представила первую серийную модель цифровой фоторамки, оснащенную OLED-панелью с экраном 7,6 дюйма по диагонали и разрешением 800x480 пикселов. Таким образом, сфера применения OLED-дисплеев в серийно выпускаемых устройствах постепенно расширяется.
Sony XEL-1 — первый в мире серийно
выпускаемый телевизор, оснащенный
OLED-дисплеем
На выставках производители показывали и перспективные прототипы с большим размером экрана. Так, на проходившем в октябре минувшего года в Южной Корее форуме International Meeting on Information Display 2008 (IMID) компания Samsung продемонстрировала целый ряд прототипов на базе OLED, в том числе полноразмерные дисплеи для ПК с диагональю экрана 14 и 31 дюйм (последний — с разрешением Full HD), а также 5-дюймовый дисплей для мобильных устройств, имеющий разрешение 848x480 пикселов.
Цифровая фоторамка компании Kodak,
оснащенная 7,6-дюймовым OLED-дисплеем
Согласно предварительным прогнозам, серийные модели дисплейных панелей и телевизоров на базе OLED с размером экрана 30 дюймов и более появятся в продаже в 2011-2012 годах. Нельзя не отметить, что в последнее время аналитики стали более осторожными в оценках перспектив OLED-дисплеев и их соперничества с устройствами на базе ЖК-технологии. Хотя у OLED-дисплеев имеется ряд важных преимуществ над ЖК-панелями, рыночные позиции последних в 2007-2008 годах значительно укрепились благодаря как улучшению их характеристик (что обусловлено совершенствованием технологий их производства), так и постоянному снижению цен. В итоге некоторые производители, ранее сообщавшие о намерении развернуть серийное производство устройств на базе OLED-дисплеев, отказались от этих планов. В качестве примера можно привести действия компании Toshiba, которая в середине 2007 года объявила о намерении начать выпуск телевизоров на базе OLED-дисплеев в 2009-2010 годах, но спустя всего несколько месяцев после анонса поставила на этом проекте крест.
3D-дисплеи на базе ЖК
К настоящему моменту разработано несколько технологий производства дисплеев, создающих у наблюдателя правдоподобную иллюзию объемного (трехмерного) цветного изображения без применения вспомогательных средств (очков и пр.).
Нужного эффекта можно достичь, оснастив обычный ЖК-дисплей так называемым параллакс-барьером (например, пленкой с чередующимися непрозрачными вертикальными полосками и узкими прозрачными зазорами между ними). Если шаг полосок параллакс-барьера равен ширине двух пикселов, то при отклонении в одну сторону от осевой линии монитора наблюдатель сможет видеть только четные столбцы пикселов, а при отклонении в другую — нечетные. Изменяя расстояние между экраном монитора и параллакс-барьером, можно добиться того, чтобы правый глаз наблюдателя воспринимал изображение, сформированное нечетными столбцами пикселов, а левый — четными. Если вывести на экран такого монитора специальным образом подготовленную стереограмму (в которой будут перемежаться столбцы пикселов изображений левого и правого ракурсов), то у зрителя возникнет иллюзия трехмерности.
Принцип действия параллакс-барьера, расположенного
с внешней стороны дисплейной панели
Принцип действия активного параллакс-барьера между ЖК-панелью и лампой подсветки
Параллакс-барьер может быть как пассивным (пленка с непрозрачными полосками), так и активным элементом (монохромная ЖК-панель). В последнем случае монитор можно сделать универсальным: с выключенным параллакс-барьером он будет работать в обычном, двумерном режиме, а при активации параллакс-барьера — в трехмерном.
Несколько лет назад специалисты Philips Research Redhill разработали собственный вариант конструкции 3D-монитора на базе ЖК-панели, в котором вместо параллакс-барьера используется массив миниатюрных цилиндрических линз.
В настоящее время исследования в области создания 3D-дисплеев на базе ЖК-технологии ведут компании Eastman Kodak, Hitachi, NEC, Philips, Samsung, Sanyo, Sharp и Toshiba.
На данный момент 3D-дисплеи на базе ЖК-технологии находятся на начальной стадии коммерциализации. Решения, позволяющие пользователю наблюдать объемное цветное изображение без вспомогательных средств (специальных очков и т.п.), уже реализованы в ряде серийно выпускаемых ЖК-дисплеев компаний NEC, Philips, Sharp и ряда других. Правда, сфера применения подобных устройств пока остается довольно ограниченной — они используются главным образом для показа рекламных материалов в крупных торговых центрах. Одной из основных проблем, препятствующих широкому распространению 3D-мониторов, является отсутствие простых в применении и при этом недорогих программных средств, позволяющих создавать изображения и видео в трехмерном виде.
Одна из серийно выпускаемых дисплейных
ЖК-панелей компании Philips, позволяющая
воспроизводить трехмерные изображения
без применения вспомогательных средств
Определенные надежды производители возлагают на 3D-дисплеи небольшого размера, предназначенные для установки в мобильные телефоны и портативные цифровые медиаплееры. В 2007-2008 годах на различных выставках было продемонстрировано более десятка прототипов ЖК-дисплеев с диагональю экрана от 2 до 3 дюймов, позволяющих воспроизводить объемные цветные изображения. Внедрение таких дисплеев в серийно выпускаемые продукты позволит создать новую рыночную нишу для производителей медиаконтента, в частности стереоскопических изображений и видеороликов.
Электронные чернила (e-ink)
Технология электронных чернил была разработана компаниями E Ink и Philips. В ходе многолетних исследований ученым удалось создать новый тип устройств для отображения информации — электрофоретические отражающие дисплеи. Такие устройства обладают оптическими и механическими характеристиками, схожими с обычной бумагой.
Базовыми элементами электрофоретических дисплеев являются микрокапсулы, диаметр которых не превышает толщину человеческого волоса. Внутри каждой микрокапсулы находится большое количество пигментных частиц двух цветов: положительно заряженные белые и отрицательно заряженные черные, а все внутреннее пространство микрокапсулы заполнено вязкой прозрачной жидкостью.
Принцип работы электрофоретического отражающего дисплея
Слой микрокапсул расположен между двумя рядами взаимно перпендикулярных гибких электродов (сверху — прозрачных, снизу — непрозрачных), образующих адресную сетку. При подаче напряжения на два взаимно перпендикулярных электрода в точке их пересечения возникает электрическое поле, под действием которого в расположенной между ними микрокапсуле группируются пигментные частицы. Частицы с одним зарядом собираются в верхней части микрокапсулы, а с противоположным — в нижней. Для того чтобы поменять цвет точки экрана с белого на черный или наоборот, достаточно изменить полярность напряжения, поданного на соответствующую пару электродов. Таким образом, пиксел экрана, соответствующий данной микрокапсуле, окрасится в черный либо белый цвет; при этом пигментные частицы, сгруппировавшиеся в верхней части микрокапсулы, скроют от наблюдателя все частицы, сосредоточенные в ее нижней части.
Так выглядит изображение на экране электрофоретического дисплея
Дисплеи на базе электронных чернил способны сохранять изображение на экране даже при отсутствии электропитания (подача напряжения на управляющие электроды необходима лишь для переключения состояния пиксела), что наряду с отсутствием лампы подсветки обеспечивает очень низкий уровень энергопотребления. Такие дисплеи являются отражающими и обеспечивают хорошую читаемость изображения практически под любым углом и при любом освещении. В качестве подложки для создания дисплеев на основе электронных чернил можно использовать различные материалы: стекло, пластик, металлическую фольгу, ткань и даже бумагу. Уже созданы прототипы подобных дисплеев на гибкой подложке, способные сохранять работоспособность при сгибании и даже скручивании в рулон.
Прототип гибкого дисплея на базе
электронных чернил (фото Plastic Logic)
Основными недостатками дисплеев на базе электронных чернил являются большое время переключения пикселов (0,5-1 с) и ограниченное количество воспроизводимых оттенков (серийно выпускаемые модули позволяют отображать четыре либо 16 оттенков серого).
Устройство для чтения электронных книг
Sony Reader PRS-505, оснащенное отражающим
электрофоретическим дисплеем компании E Ink,
доступно в том числе и для российских покупателей
В настоящее время технология электронных чернил, позволяющая создавать монохромные отражающие дисплеи, находится на начальной стадии коммерциализации. Основной сферой применения подобных дисплеев являются устройства для чтения электронных книг. Несколько моделей, оснащенных дисплеями на базе электронных чернил компании E Ink, уже доступны и на российском рынке (подробнее об этом см. в публикации «Устройства для чтения электронных книг» в № 11’2008).
Наручный хронометр Phosphor E Ink Watch
с циферблатом-дисплеем
Есть примеры использования таких дисплеев и в других типах устройств. Так, в 2005 году компания Seiko выпустила наручные электронные часы, оснащенные дисплеем на базе электронных чернил. В конце 2007-го ART Technologies продемонстрировала оригинальный хронометр Phosphor E Ink Watch с циферблатом, представляющим собой круглый дисплей на базе электронных чернил.
Прототипы цветных дисплейных панелей на базе электронных чернил
В конце 2006 года компания Motorola представила Motofone F3 — первый в мире мобильный телефон с сегментным дисплеем на базе электронных чернил. В минувшем году была выпущена сотовая трубка Hitachi Mobile W61H с подобным внешним экраном.
Внешний экран мобильного телефона
Hitachi Mobile W61H, созданный на базе
электронных чернил, используется
в качестве оригинального декоративного
элемента (для отображения
сменных узоров)
В настоящее время сразу несколько коллективов исследователей ведут работы по созданию цветных электрофоретических дисплеев. На протяжении последних лет было продемонстрировано несколько работающих прототипов подобных дисплейных панелей (в том числе и созданные на гибкой подложке). Так, на выставке CES 2008 компания LG.Philips продемонстрировала гибкую дисплейную панель толщиной всего 0,3 мм с диагональю экрана 14,3 дюйма, созданную на подложке из металлической фольги. Разрешение этого прототипа составляет 1280x800 пикселов, а цветовая палитра — порядка 16 млн оттенков. В дни проведения форума IMID 2008 компания Samsung продемонстрировала первый в мире цветной активно-матричный электрофоретический дисплей с диагональю экрана 14,3-дюйма, созданный с использованием углеродных нанотрубок. Впрочем, информации о предполагаемых сроках внедрения подобных дисплеев в серийно выпускаемых изделиях пока нет.
Помимо уже упоминавшихся выше компаний E Ink, Samsung и LG.Philips активные работы по совершенствованию электрофоретических дисплеев в настоящее время ведут PVI, Plastic Logic, Polymer Vision, Seiko Epson, Sony и Tianjin Jinke.
Дисплеи на базе бистабильных ЖК-структур (ChLCD и PABN LCD)
По мере роста популярности и многообразия портативных электронных устройств производители проявляют все больший интерес к дисплеям на базе бистабильных ЖК-структур. В отличие от традиционных ЖК-дисплеев, в таких устройствах используются микроструктуры, способные в течение длительного времени находиться в одном из двух устойчивых состояний даже при отсутствии внешнего электрического поля (отсюда и название «бистабильные»). В одном из этих состояний ячейка на основе жидкого кристалла пропускает свет, а в другом — нет. Переключение ячейки из одного состояния в другое осуществляется посредством воздействия внешнего электрического поля, возникающего при подаче напряжения на пару управляющих электродов. Объединив множество бистабильных ячеек в двумерный массив, можно создать дисплей с очень высокой разрешающей способностью (порядка нескольких сотен и даже тысяч пикселов на дюйм).
Монохромная дисплейная панель ChLCD,
выпускаемая компанией LC-TEC Displays
По своим свойствам подобные дисплеи во многом схожи с описанными в предыдущем разделе устройствами на базе электронных чернил. Они обладают очень низким уровнем энергопотребления и способны сохранять изображение на экране при отключении питания. Как и в случае дисплеев на базе электронных чернил, существенным их недостатком является большое (порядка 1 с) время переключения состояния пиксела, что делает невозможным отображение видео. Используя бистабильные ЖК-структуры, можно создавать монохромные и цветные дисплеи — как оснащенные подсветкой, так и без нее.
Начиная с 1993 года работы в области создания дисплеев на базе холестерических жидких кристаллов (Cholesteric Liquid Crystal Display, ChLCD) ведет компания Kent Displays. Технология ChLCD позволяет создавать как монохромные, так и цветные дисплеи различных размеров. Разработкой и производством монохромных дисплейных панелей на базе бистабильных ЖК-структур занимается также шведская компания LC-TEC Displays.
Основная сфера применения монохромных дисплеев с использованием бистабильных ЖК-структур — портативные электронные устройства, а также информационные табло, вывески и т.д.
Прототип цветного дисплея, созданного
по технологии PABN LCD специалистами одной
из лабораторий НР
В настоящее время технология ChLCD находится в стадии коммерциализации — монохромные дисплеи данного типа используются в ряде серийно выпускаемых изделий. Например, во второй половине 2005 года компания A-Data выпустила портативные флэш-накопители, оснащенные небольшими монохромными дисплеями (на которых отображается имя диска и количество оставшегося свободного места), а в числе экспонатов CeBit 2006 была представлена даже SD-карта с дисплеем.
Развитием одной из разновидностей данной технологии, позволяющей создавать цветные дисплеи с высокой разрешающей способностью, занимается группа ученых расположенной в Бристоле (Великобритания) лаборатории НР. Данная технология, получившая название PABN LCD (Post-Aligned Bistable Nematic LCD), уже на нынешнем уровне развития позволяет создавать цветные дисплеи с разрешающей способностью порядка 200-400 ppi (что вполне сопоставимо с детальностью отпечатков цветных лазерных принтеров начального уровня).
Дисплеи на базе технологий SED, FED и NED
Группа из трех родственных технологий — FED (Field Emission Display), SED (Surface-conduction Electron-emitter Display) и NED (Nanotube Emissive Display) — является качественно новой ступенью развития дисплеев на базе электронно-лучевой трубки (ЭЛТ). Как и в случае ЭЛТ, изображение на экранах дисплеев перечисленных типов формируется за счет свечения люминофора, возбуждаемого потоком электронов. Правда, в отличие от ЭЛТ, оснащенной всего тремя электронными пушками, лучи каждой из которых при помощи электромагнитной отклоняющей системы последовательно пробегают по строкам экрана, в SED-дисплеях применяются малогабаритные источники электронов (молибденовые конусы диаметром всего около 200 нм), массивы которых расположены в каждой из ячеек экрана. (В NED-устройствах в качестве источников электронов используются углеродные нанотрубки.)
Принцип работы SED-дисплея
Применение большого количества миниатюрных источников электронов позволяет сделать дисплеи гораздо более тонкими, легкими и экономичными по сравнению с устройствами на базе ЭЛТ. При этом SED-, FED- и NED-дисплеи обладают многими достоинствами систем на базе ЭЛТ: высоким уровнем яркости и контрастности изображения, большим углом обзора, широким цветовым охватом и высокой точностью цветопередачи, а также незначительной инерционностью изображения.
Использование большого количества источников электронов (до нескольких тысяч на каждый пиксел) обеспечивает высокую надежность дисплейных панелей — в отличие от ЖК-мониторов, где выход из строя транзистора, управляющего одним из субпикселов, автоматически означает появление «мертвого» (или залипшего) пиксела на экране.
Определенным недостатком дисплеев рассматриваемых типов является сложность (а следовательно, и дороговизна) их производства. По мнению экспертов, именно по этой причине выпуск таких устройств будет рентабельным лишь при изготовлении панелей с относительно большим размером экрана (50 дюймов и более).
Прототип SED-дисплея Canon
Одной из первых внедрить технологию SED в серийно выпускаемые устройства попыталась компания Canon. В 2005 году было основано совместное предприятие Canon и Toshiba для разработки и производства дисплейных панелей на базе технологии SED, и вскоре публике были показаны первые прототипы. Однако приступить к выпуску SED-дисплеев в конце 2006 года (как это планировалось первоначально) по ряду причин не удалось, а в 2007-м и вовсе наступила черная полоса. Сначала Toshiba, руководство которой разуверилось в перспективах производства SED-дисплеев, продала свою долю в совместном предприятии компании Canon. Затем представители компании Nano-Proprietary (ранее известной под названием Applied Nanotech Holdings) обвинили Canon в нарушении патентов, описывающих конструкцию элементов, которые применяются в SED-дисплеях для формирования потока электронов. Последовали длительные судебные разбирательства. В начале 2008 года Canon сообщила о своем намерении начать разработку нового типа дисплейной панели, работающей по принципу электронной эмиссии, но уже на базе собственной технологии, не затрагивающей патенты компании Nano-Proprietary. Затем американский апелляционный суд все-таки частично признал правоту Canon, и 12 февраля 2008 года японская компания получила измененный патент США на технологию SED. Впрочем, точка в этих разбирательствах еще не поставлена: в декабре минувшего года представители Nano-Proprietary вновь высказали ряд претензий к Canon. Разумеется, все это не способствовало прогрессу в области развертывания серийного производства SED-дисплеев. Кроме того, за период вынужденного простоя цены на ЖК-панели значительно снизились, да и максимальный размер экранов этих устройств заметно увеличился. В течение минувшего года в различных источниках появлялись сообщения о продолжении работ в области создания SED-дисплеев, однако в начале декабря президент компании Canon Цуней Ючида (Tsuneji Uchida) заявил в одном из интервью, что в сложившейся экономической ситуации вывод на рынок продуктов на базе новой технологии был бы неправильным шагом. Таким образом, будущее SED-дисплеев Canon пока под вопросом.
Демонстрация прототипа FED-дисплея в сравнении
с ЖК-дисплеем аналогичного размера
Что касается FED-дисплеев, то их позиция пока выглядит более выигрышной. В конце 2006 года компания Sony и японский технологический фонд Technology Carve-out Investment Fund (TCI) основали предприятие Field Emission Technologies, основным направлением деятельности которого является разработка пригодных к коммерческой эксплуатации FED-дисплеев. Менее чем через год, на выставке CEATEC Japan 2007, представители Field Emission Technologies продемонстрировали работающий прототип 19-дюймового FED-дисплея, имеющего разрешающую способность 1280x960 пикселов и работающего с частотой регенерации 240 кадров в секунду (это позволяет устранить эффект мерцания, присущий телевизорам на базе ЭЛТ). По информации разработчиков, при одинаковой яркости энергопотребление FED-панели оказывается примерно втрое ниже по сравнению с ЖК-дисплеем, имеющим аналогичные размеры и разрешение экрана.
В ноябре 2008 года на одной из выставок Sony показала работающий прототип 19-дюймового FED-дисплея, имеющего разрешение Full HD и позволяющего отображать сигнал с частотой смены кадров до 240 Гц. В качестве источника видеосигнала на демонстрационном стенде были задействованы четыре параллельно работающие игровые консоли Sony PlayStation 3.
Исходя из информации, имеющейся в открытых источниках, уровень развития технологии SED позволяет использовать ее для создания серийных продуктов, однако в силу ряда причин (в том числе экономических) данный проект заморожен на неопределенное время. В свою очередь, технология FED развивается более быстрыми темпами и уже стоит на пороге коммерциализации. Не исключено, что первые серийные продукты на базе FED-панелей появятся в продаже уже в 2009 году. Впрочем, непростая экономическая ситуация может заставить руководство Sony скорректировать свои планы.
LCoS
Технология LCoS (Liquid Crystal on Silicon — жидкие кристаллы на кремнии) была разработана для использования в проекционных устройствах. Центральной частью LCoS-устройства является ЖК-матрица (микродисплей), изготовленная на кремниевой подложке (на ней же расположены и управляющие работой ячеек транзисторы). Однако, в отличие от классической проекционной ЖК-технологии, в данном случае микродисплей работает на отражение. Благодаря этому LCoS-технология обеспечивает ряд преимуществ по сравнению с традиционной ЖК-технологией, в частности пикселы микродисплея LCoS характеризуются меньшим временем реакции, а за счет того, что транзисторы микродисплея расположены под ячейками субпикселов и не препятствуют прохождению света, и значительно большей апертурой.
Принцип работы проекционного устройства на базе LCoS
Исследованиями в области LCoS занимались несколько научных групп. Наибольших успехов в начале нынешнего десятилетия удалось достичь сотрудникам исследовательского отдела компании Philips. Разработчики прочили технологии LCoS массовое применение в недорогих и при этом качественных проекционных устройствах — мультимедиапроекторах и проекционных телевизорах. В перспективе LCoS имеет хорошие шансы стать третьей силой на современном рынке мультимедиапроекторов и потеснить технологии, традиционно используемые в данном типе устройств (речь идет о DLP и 3LCD).
В 2003 году развитием и внедрением LCoS в коммерческие устройства всерьез заинтересовалась корпорация Intel. В январе 2004-го на выставке CES 2004 представители Intel объявили о намерении развивать эту технологию и в ближайшем будущем наладить серийное производство LCoS-чипов для проекционных телевизоров и мультимедиапроекторов. Спустя всего два месяца на весеннем форуме IDF были продемонстрированы работающие прототипы проекционных устройств на базе LCoS-чипов. Согласно первоначальному плану, начало серийного производства LCoS-чипов на мощностях компании Intel было намечено на вторую половину 2004 года. Однако в конце того же года Philips неожиданно объявила об уходе с рынка LCoS-чипов, свертывании всех исследовательских работ в данном направлении и прекращении выпуска соответствующих продуктов. Вскоре компания Intel также объявила о закрытии проекта по развитию технологии LCoS. После этих событий многие производители проекционных устройств утратили интерес к данной технологии, и на некоторое время она оказалась в тени.
Проекционный телевизор серии Sony Bravia,
построенный на базе технологии LCoS
Тем не менее в компаниях Hitachi, Sony и JVC работы по развитию данной технологии были продолжены и впоследствии на рынке появились серийные модели проекционных устройств на базе LCoS. Так, начиная с 2006 года компания Sony производит проекционные телевизоры высокого разрешения на базе LCoS для японского рынка. В 2007 году Sony выпустила первые модели проекторов класса Full HD, построенные на базе технологии SXRD (Silicon X-tal Reflective Display), фактически являющейся фирменной интерпретацией LCoS.
Проектор Sony VPL-VW60 с разрешением Full HD,
построенный на базе технологии LCoS
Стоит отметить, что технология LCoS востребована и в других сегментах. На ее основе можно создавать миниатюрные проекторы (см. раздел «Пикопроекторы»), а также голографические проекционные устройства для визуализации объемных (трехмерных) изображений. Таким образом, в течение ближайших лет можно ожидать повышения интереса разработчиков проекционных устройств различного назначения к технологии LCoS и ее клонам. Тем более что сроки действия патентов на эту технологию истекли и теперь производителям не придется платить лицензионные отчисления за ее использование.
IMOD
В 2006 году в различных СМИ стала появляться информация о работе по созданию принципиально новой технологии электронных дисплеев — Interference Modulator, IMOD. Данная технология базируется на использовании эффекта интерференции световых волн.
Основным структурным элементом IMOD-дисплея является так называемый интерференционный модулятор, представляющий собой миниатюрную электромеханическую систему (micro-electro-mechanical system, MEMS) с резонансной камерой. Конструкция модулятора включает неподвижную прозрачную подложку, снабженную полупрозрачной тонкопленочной «подкладкой» с внутренней стороны, и гибкую отражающую мембрану, которая может находиться в одном из двух устойчивых состояний. В открытом положении между подложкой и мембраной имеется небольшой воздушный зазор (порядка нескольких сотен нанометров). Свет, попадающий в ячейку извне, отражается от подложки. В результате интерференции прямого и отраженного света ячейка окрашивается в определенный цвет (в какой именно — зависит от толщины зазора). В закрытом положении ячейки мембрана прижимается вплотную к внутренней поверхности подложки, падающий извне свет поглощается, и ячейка становится черной. Переключение состояния ячейки производится путем подачи управляющего напряжения.
Принцип работы ячейки IMOD-дисплея
Поскольку каждая ячейка IMOD может быть либо полностью открытой, либо полностью закрытой, для формирования полутонов в каждом из субпикселов дисплея объединено несколько одинаковых ячеек (см. рисунок).
Необходимо обратить внимание на то, что ячейки IMOD-дисплея являются бистабильными структурами — а значит, подача питания требуется лишь в момент обновления изображения на экране. Благодаря этому обеспечивается низкий уровень энергопотребления. При этом, в отличие от дисплеев на базе электронных чернил, технология IMOD обеспечивает достаточно быстрое переключение пикселов, позволяя без проблем воспроизводить не только статические изображения, но и видео.
На базе технологии IMOD можно создавать как отражающие экраны, так и дисплеи, оснащенные подсветкой. Использование интерференции позволяет получать на экране гораздо более яркое изображение по сравнению с отражающими дисплеями на базе ЖК-технологии.
Конструкция пиксела IMOD-дисплея
Благодаря простоте конструкции дисплейные панели IMOD имеют небольшую толщину и вес. Кроме того, данная технология не налагает серьезных ограничений на максимальный размер дисплейных панелей. На данном этапе развития возможно создание IMOD-дисплеев, имеющих разрешение порядка 400-1000 ppi.
В настоящее время развитием и продвижением технологии IMOD занимается компания Qualcomm. В 2006 году был представлен первый прототип на базе данной технологии: монохромный 1,8-дисплей, имеющий разрешение 128x160 пикселов. В 2008 году Qualcomm представила цветные IMOD-дисплеи небольшого размера под коммерческим названием Mirasol. В сентябре того же года компания Freestyle Audio выпустила небольшую партию портативных цифровых аудиоплееров Soundwave FA300, выполненных в водозащищенном корпусе и оснащенных цветным дисплеем Mirasol с 0,9-дюймовым экраном.
Так, по мнению разработчиков компании Qualcomm,
будут выглядеть в ярком солнечном свете дисплеи
на базе ЖК-технологии (слева) и IMOD
На данный момент технология IMOD уже готова к внедрению в серийно выпускаемые устройства, однако ее будущее во многом зависит от позиции крупнейших производителей портативной электроники, ряд которых располагает собственным производством ЖК- и OLED-дисплеев, а следовательно, они не заинтересованы в использовании технологий сторонних разработчиков.
Пикопроекторы
Термин «пикопроекторы», введенный в обращение специалистами компании Texas Instruments (TI), обозначает миниатюрные проекционные устройства, которые могут быть использованы как для создания карманных мультимедиапроекторов, так и в качестве модулей, встраиваемых в мобильные устройства (сотовые телефоны, КПК, портативные цифровые медиаплееры и пр.). Заметный рост интереса разработчиков и производителей портативной техники к созданию пикопроекторов, пригодных для применения в серийно выпускаемых изделиях, обусловлен тенденциями развития данного сегмента рынка. В то время как физические размеры мобильных устройств неуклонно уменьшаются, набор заложенных в них функциональных возможностей с каждым годом расширяется. Разместить в маленьком корпусе большой дисплей, который позволил бы обеспечить достаточно комфортную работу с современными мобильными приложениями, становится все сложнее. И то, что разработчики обратили свои взоры на проекционные устройства, вполне закономерно — ведь именно это решение позволяет без особых проблем получать изображение, размеры которого во много раз превосходят габариты самого аппарата.
Микрозеркальная матрица и процессор
чипсета DLP Pico в сравнении с полноразмерной
микрозеркальной матрицей, используемой
в обычных DLP-проекторах (в левом нижнем углу)
По размеру существующие прототипы миниатюрных проекционных модулей не больше спичечного коробка, а низкий уровень энергопотребления позволяет использовать питание от автономных источников (аккумуляторов). В качестве источников света в пикопроекторах применяются яркие светодиоды или полупроводниковые лазеры. В зависимости от используемой технологии роль модулятора выполняет DMD-матрица (DLP), ЖК-панель на кремниевой подложке (FLCoS) либо электромеханическая система развертки с миниатюрным подвижным микрозеркалом (MEMS).
Проекционный модуль PicoP (фото Microvision)
Одним из потенциальных лидеров в сегменте пикопроекторов в настоящее время является компания Texas Instruments. Ее разработчики успешно адаптировали технологию DLP для использования в миниатюрных проекционных устройствах. В феврале 2008 года Texas Instruments официально объявила о начале поставок серийных образцов чипсета DLP Pico, в состав которого входят микрозеркальная матрица (DMD) DLP Pico и специализированный процессор DDP1500 (для встраиваемых проекционных модулей портативных устройств) либо DDP1505 (для миниатюрных проекторов). Конструкция DLP Pico рассчитана на использование светодиодов в качестве источников света.
Альтернативное решение предлагает компания Microvision, разработавшая миниатюрный проекционный модуль на базе электромеханического устройства развертки с миниатюрным подвижным зеркалом. В качестве источника света используются три полупроводниковых лазера (красного, зеленого и синего цветов).
Прототип карманного проектора SHOW,
созданный на базе модуля PicoP
На проходившем в мае минувшего года форуме Society for Information Display (SID 2008) компания Microvision продемонстрировала усовершенствованный проекционный модуль PicoP и созданный на его основе прототип карманного проектора SHOW, позволяющий проецировать полноцветное изображение размером от 20 до 200 см по диагонали с разрешением WVGA (848x480 пикселов).
Карманный проектор Aiptek PocketCinema V10
Собственные решения для создания пикопроекторов на базе технологии FLCoS (Ferroelectric Liquid-Crystal-on-Silicon — сегнетоэлектрические жидкие кристаллы на кремниевой подложке) предлагает компания Displaytech. Стоит отметить, что технология FLCoS уже давно используется в серийно выпускаемых устройствах (основная сфера ее применения — электронные видоискатели цифровых фото- и видеокамер). В ноябре 2007 года Displaytech объявила о заключении соглашений с 13 компаниями, которые планируют выпускать портативные устройства (мобильные телефоны, КПК, цифровые фотокамеры, портативные цифровые медиаплееры и т.п.), оснащенные встроенными проекционными модулями на базе FLCoS-панелей. При этом Displaytech пока не собирается производить проекционные модули и тем более оснащенные ими устройства на собственных мощностях, продолжая разрабатывать и выпускать лишь FLCoS-панели.
Миниатюрная FLCoS-панель
В настоящее время упомянутые технологии, разработанные для создания миниатюрных проекционных устройств, находятся на начальной стадии коммерциализации. В мае-июне 2008 года были анонсированы первые модели серийных устройств, оснащенных миниатюрными проекционными модулями. Несколько интересных новинок было продемонстрировано на выставке Computex 2008. Например, компания Aiptek показала миниатюрный проектор PocketCinema V10, по размеру сопоставимый с мобильным телефоном. Данное устройство позволяет проецировать картинку размером до 50 дюймов (127 см) по диагонали. На стенде компании ASUS можно было увидеть прототип ноутбука, оснащенного встроенным в крышку миниатюрным проекционным модулем.
Карманный проектор Optoma Pico
В ноябре компания Optoma объявила о выпуске серийной модели пикопроектора Optoma Pico. Его размеры — 50,8x104,7x17,7 мм, а вес — 120 г. Данное устройство позволяет проецировать изображение размером до 65 дюймов (165 см) по диагонали и способно работать от встроенного аккумулятора.
Оптические накопители
Голографическая запись
В отличие от оптических дисков традиционной конструкции (CD, DVD и т.д.), голографические носители позволяют использовать для хранения данных всю толщину записывающего слоя. Если запись на дорожке CD- и DVD-дисков производится последовательно, бит за битом, в одном измерении, то голографическая технология позволяет применять все три измерения рабочего слоя носителя и осуществлять параллельное считывание или запись массива битов (так называемых страниц), сохраняемых в слое носителя в виде интерференционных картин (голограмм).
Использование данной технологии позволяет значительно увеличить как удельную емкость носителей, так и скорость чтения/записи. Существующие прототипы, работающие с дисковыми носителями, обеспечивают возможность записи нескольких сотен гигабайт данных на одном носителе диаметром 120-130 мм. Кроме того, на базе голографической технологии можно создавать накопители, работающие с компактными карточками емкостью от нескольких единиц до нескольких десятков гигабайт.
Запись данных в голографическом накопителе
В настоящее время технология голографической записи находится на начальной стадии коммерциализации. В 2007 году компания InPhase Technologies приступила к серийному производству системы хранения данных Tapestry 300r, созданной на базе голографического привода и предназначенной для использования в профессиональных вещательных студиях. Данное устройство позволяет записывать данные на специальные WORM-диски емкостью 300 Гбайт — этого достаточно для хранения 35 ч видео вещательного качества (с потоком 19 Мбит/с). Максимальная скорость чтения и записи данных составляет 160 Мбит/с — таким образом, для заполнения одного носителя потребуется немногим более 4 ч. По данным производителя, долговечность носителей составляет не менее 50 лет.
Чтение данных в голографическом накопителе
Оптические накопители на базе голографической технологии записи, предназначенные для профессиональных цифровых видеозаписывающих систем, выпускает также японская компания Optware.
Голографический привод Tapestry 300r
и WORM-носитель емкостью 300 Гбайт
Технология голографической записи находится на начальной стадии коммерциализации. Необходимо отметить, что данное решение ориентировано исключительно на применение в составе высокопроизводительных аппаратных комплексов по обработке и хранению больших объемов медиаданных (в частности, в телевизионных вещательных студиях). Внедрение голографических накопителей в обычные ПК и бытовые устройства пока не планируется.
Видеопроигрыватели формата HD
В 2006 году в продаже появились первые серийные модели бытовых проигрывателей, позволяющие воспроизводить видеосигнал формата высокой четкости (Full HD) — 1920x1080 пикселов с прогрессивной разверткой. Речь идет главным образом об устройствах, созданных на базе оптических приводов с сине-фиолетовым лазером и позволяющих воспроизводить видео с разрешением 720 и/или 1080 линий (с прогрессивной либо чересстрочной разверткой). В 2006-2007 годах спрос на видеопроигрыватели высокой четкости был невелик, что объяснялось чрезмерно высокими ценами на эти устройства, неопределенностью исхода в противоборстве двух конкурирующих форматов (HD-DVD и Blu-ray Disc), а также весьма скудным ассортиментом и высокой стоимостью видеозаписей высокой четкости.
Бытовой проигрыватель формата Blu-ray Disc
Минувший год во многом стал переломным. 19 февраля 2008 года компания Toshiba официально объявила о прекращении разработки, производства и продажи устройств с оптическими приводами формата HD-DVD. Таким образом, на рынке видеопроигрывателей высокой четкости остался единственный формат — Blu-ray Disc. Кроме того, за минувший год заметно снизились цены на бытовые видеопроигрыватели Blu-ray Disc (в России младшие модели можно приобрести за 10-12 тыс. руб.) и заметно расширился ассортимент предлагаемых видеозаписей высокой четкости на носителях этого формата. Одновременно наблюдалось снижение цен на телевизоры и дисплейные панели, позволяющие воспроизводить видеосигнал высокой четкости. Всё это способствовало повышению интереса покупателей к видеопроигрывателям формата Blu-ray Disc.
С высокой степенью вероятности можно утверждать, что через несколько лет видеопроигрыватели высокой четкости станут массовым продуктом и начнут вытеснять доминирующий в настоящее время формат DVD. Впрочем, последний вряд ли быстро уступит свои позиции: решающим фактором пока остается цена устройств, а также доступность и стоимость видеозаписей.
Интерфейсы «компьютер — человек»
Автоматизированный синхронный перевод (Speech-to-Speech Translation)
Автоматизация синхронного перевода — это одна из самых давних и драматичных проблем в компьютерной индустрии, которая неизменно привлекает повышенное внимание со стороны как пользователей, так и разработчиков цифровых технологий. Когда-то писателям-фантастам возможность разговора с компьютером казалась столь очевидной и естественной, что первые вычислительные машины, лишенные голосового интерфейса, воспринимались как нечто неполноценное. Тем не менее решить эту задачу пока так и не удалось, но если совсем недавно ее решение эксперты откладывали как минимум на десяток лет, то теперь в этом вопросе просматриваются более оптимистичные перспективы. Оптимизм основывается главным образом на том, что в современных языках приблизительно 50% текста приходится на долю слов, не содержащих никакой новой информации, а кроме того, определенная часть информации все равно не воспринимается слушателями без соответствующего уточнения и дублирования в тексте. Таким образом, если сосредотачиваться на главном, отсеивая второстепенное, то можно обеспечить перевод, который будет даже более адекватен тому, что говорящий хочет донести до слушателей, нежели оригинальный текст. Тем не менее это задача столь высокой интеллектуальной сложности и трудоемкости, что даже высокопрофессиональные переводчики-синхронисты способны работать посменно и только по 15-20 минут.
Впрочем, на нашу страну оптимизм скорого прогресса в этой области явно не распространяется, так что автоматизированных синхронных переводов на русский и/или с русского в обозримом будущем ожидать не приходится. Это связано с тем, что русский язык принципиально отличается от других языков не только фонетически (например, звуком «ы»), но и свободным порядком слов в предложении, что сильно усложняет математическое моделирование речи. В результате использование западных технологий для работы с русским языком представляется весьма затруднительным.
Президент и генеральный директор корпорации Intel
Пол Отеллини демонстрирует новое ПО компании
в области автоматизированного синхронного перевода
на форуме 2008 International CES
Можно выделить три различные области технологий, которые будут решать общую задачу перевода с одного разговорного языка на другой: достоверное распознавание живой речи, машинный перевод текста и синтез речи по тексту. Сегодня уже создано несколько локальных технологий, получивших практическое применение в различных областях. Пока более или менее сносно выполняется лишь последняя задача — роботизированная речь успешно используется во многих видах деятельности, хотя гораздо хуже воспринимается человеком, чем живая, особенно при передаче по каналам телефонной связи, то есть как раз там, где она сегодня наиболее востребована. Серьезный прогресс достигнут и в области машинного перевода, но до полного решения этой задачи пока еще далеко. Результаты работы над автоматическим распознаванием живой речи и преобразованием ее в текст еще скромнее — определенные сдвиги наблюдаются лишь в сфере распознавания с голоса специализированных текстов с ограниченным словарем (особенно это востребовано в таких сферах, как медицинское обслуживание, помощь при чрезвычайных ситуациях, общение в транснациональных корпорациях или в случае привлечения иностранной рабочей силы).
Десять новых технологий компании IBM
Но, как ни печально, даже если все составляющие технологии синхронного перевода достигнут уровня промышленного использования (считается, что для этого достаточно точности в 95-98%), то задача в целом все равно не будет решена, поскольку получить верный перевод при интеграции всех этих технологий на практике не удастся даже при сносной работе каждой из них по отдельности. Сначала смысл исказится на этапе распознавания речи, затем определенную погрешность внесет автоматизированный переводчик (причем работать он будет с уже искаженным текстом, так что не сможет выйти даже на достигнутую точность), а в результате робот бесстрастным голосом произнесет что-то уже совсем несуразное. Причем в настоящее время все эти задачи решаются различными, порой даже взаимоисключающими методами и алгоритмами, поэтому интеграция их в единое целое представляет особую проблему. Таким образом, данная технология остается в сфере фантастики, однако в процессе работы над ней началось широкое практическое применение отдельных ее компонентов, таких, например, как распознавание голосовых команд в телефонах и синтез речи в справочных службах.
В то же время ограниченные узкой темой переводы сегодня уже входят в стадию коммерциализации.
Утверждается, что оптимальных успехов в решении названных проблем на Западе (особенно в части интеграции технологий для решения общей задачи) достигли такие компании, как IBM, Intel и Spoken Translation.
Распознавание речи на ПК
Теоретически, в отличие от специализированных технологий для мобильных устройств, универсальные системы распознавания речи для ПК, благодаря большей мощности настольных компьютеров, способны более детально интерпретировать человеческую речь и переводить ее не только в ограниченный набор команд, но и в связный текст. В идеале компьютер должен воспринимать произносимые фразы и автоматически переводить их в текст, тем самым исключив необходимость привычного его набора на клавиатуре. В начале нынешнего года патриарх компьютерной индустрии Билл Гейтс в своих прогнозах относительно развития компьютерных технологий второго десятилетия цифрового века даже заявил, что создание интерфейса на естественных языках является одной из самых приоритетных задач компьютерной индустрии. В настоящее время исследования в области распознавания слитной речи набирают обороты. Ими занимаются как отдельные фирмы, так и лидеры компьютерного рынка. Например, компания Microsoft Corporation более 10 лет назад инвестировала 45 млн долл. в бельгийскую фирму Lernout & Hauspie Speech Products. По условиям контракта компании занимаются разработкой продуктов, использующих технологии распознавания речи на различных языках для операционных систем Windows.
Билл Гейтс связывает будущее компьютерной
индустрии с интерфейсами на естественных языках
Однако на практике надежное использование голосового управления и распознавания речи на ПК до сих пор ограничено теми же рамками, что и на мобильных компьютерах, смартфонах и телефонах, — то есть управлением некоторыми функциями интерфейса и выбором из предлагаемых вариантов. А до надежного распознавания слитной речи дело так и не дошло.
Однако, несмотря на серьезные трудности, успехи в распознавании речи все же достигнуты, хотя в основном они касаются только диктовки узкоспециализированных текстов (главным образом технических, медицинских, юридических и всевозможной деловой переписки). Впрочем, широкого распространения подобные технологии пока не получили даже в тех областях, где разработчики добились заметного успеха. Сегодня, например, в Windows Vista входит модуль Microsoft Speech Recognizer (к сожалению, поддерживаются только английский и японский языки — см. «Панель управления» и «Текст в речь/Свойства речи»). Однако практическая работа с этим модулем даже у англоязычных пользователей до сих пор вызывает серьезные трудности, и потому им мало кто пользуется.
Использование распознавания
в специализированных областях уже
сегодня достигло определенного успеха
Более перспективным способом применения подобных решений считается разработка интерфейсов с голосовым управлением на основе диалога, которые будут обладать большими возможностями, нежели аналогичные разработки для мобильных устройств.
Работу в этой области ведут такие компании, как IBM, Intel, Microsoft, Nuance Communications и Philips Speech Processing. Российская компания Cognitive Technologies, достигшая значительных успехов в области распознавания печатных текстов, в 2001 году сообщала о совместном проекте с Intel по созданию систем распознавания русской речи, но до сих пор никаких успехов на этом поприще не продемонстрировала.
В начале 2008 года российская компания «Центр Речевых Технологий» (http://www.speech2b.ru/) объявила о завершении работы над технологией распознавания слитной русской речи на 30 тыс. словоформ — «Руссограф». Утверждалось, что работы над этим проектом продолжались более 3 лет, а собственные инвестиции компании в разработку составили порядка 5 млн долл. Специалисты компании сейчас готовят к выходу на рынок целый ряд принципиально новых продуктов в области распознавания русской речи и голосового управления. Например, к Олимпиаде-2014 в Сочи компания обещает выпустить карманный переводчик устной русской речи.
Кроме того, компания «Центр речевых технологий» работает над аппаратной реализацией своей технологии «Руссограф». Однако обещанные в 2008 году продукты, которые должны были быть построены на основе новой технологии распознавания (в частности, системы интерактивного голосового управления для контакт-центров, а также системы управления промышленными объектами), до сих пор так и не вышли.
Распознавание речи для мобильных устройств
Возможности голосового управления и общения на естественном языке наиболее привлекательны для рынка всевозможных миниатюрных и мобильных систем. Клавиатуры портативных компьютеров слишком малы и неудобны для быстрой работы с текстом.
Однако программы распознавания речи в мобильных устройствах решают, как правило, более специализированные задачи, нежели универсальное распознавание слитной речи, поэтому сегодня они уже применяются довольно успешно. А увеличение вычислительных мощностей мобильных устройств позволяет создавать весьма продвинутые программы с расширенными функциями распознавания речи. Среди таких приложений давно известна программа Microsoft Voice Command, которая управляет различными приложениями при помощи голоса (например, можно включить воспроизведение музыки в плеере или создать новый документ), Apple Speech Recognition Manager (которая работает на любом компьютере Macintosh или PowerBook) или Speereo Voice Translator (голосовой переводчик), способный распознавать фразы, произнесенные на английском языке, и проговаривать перевод на одном из выбранных языков.
А в 2008 году компания Microsoft вышла на рынок с новой технологией Sync, которая позволяет объединять КПК, MP3-плееры и телефоны с поддержкой Bluetooth, предоставляя пользователю широкие возможности по голосовому управлению всеми цифровыми гаджетами.
Pioneer AVIC-F900BT — мультимедийная навигационная
GPS-система с продвинутым голосовым управлением Microsoft Sync
Особенно часто подобные технологии используются для голосового управления функциями мобильных устройств в условиях ограниченного применения других интерфейсов. Широко используются также различные приложения для идентификации говорящего по образцу речи (например, при организации доступа к мобильному компьютеру и/или каким-то данным). Сегодня такие решения уже широко доступны для различных категорий клиентов (частных, корпоративных, разработчиков) и реализованы для различных платформ.
Тем не менее даже самые продвинутые современные мобильные устройства, которые обеспечивают независимое от говорящего распознавание речи (то есть пользователь не должен создавать собственные образцы команд) и предикативный набор (то есть система пытается по своей базе определить, какое слово или фразу вы пытаетесь произнести), имеют ограниченные возможности, и пользователь вынужден выбирать команды из не слишком обширного предлагаемого списка.
Голосовое управление для роботов —
сегодня наиболее актуальная тема,
которая может дать новый толчок развитию
технологий распознавания речи
Однако такие системы получают все более широкое распространение, а дальнейшее развитие и распространение подобных систем безусловно связывают с успехами в области распознавания живой речи. Пока эффективность работы последних (даже многомодальных и не зависящих от голоса абонента) существенно зависит от фоновых шумов, объема предикативного словаря, ясности речи говорящего и, естественно, мощности обрабатывающего процессора (которая, впрочем, постоянно увеличивается). Кроме того, к развитию этих технологий, безусловно, может подтолкнуть необходимость идентификации пользователя для обеспечения безопасности там, где по каким-либо причинам неудобно использовать другие средства идентификации. Кроме того, распознавание речи необходимо развивать для управления различными бытовыми роботами, которые сегодня переходят из области развлечений в утилитарную сферу бытовых устройств.
Что касается русскоязычных программ, то можно отметить белорусскую компанию «Сакрамент» (http://www.sakrament.com), которая является сегодня одним из ведущих разработчиков русскоязычного ПО в области распознавания русской и английской речи (идентификация голоса, индексация аудио и пр.), а также обработки речи (синтез русской и английской речи — озвучивание текстов).
Есть на российском рынке и другие продукты для КПК с поддержкой распознавания русской речи. Например, компания «Лингвобит», хорошо зарекомендовавшая себя качественной локализацией мобильных операционных систем, предлагает программу-разговорник ECTACO Partner Voice Translator, которая обладает возможностью распознавания русской речи.
Распознавание речи в телефонии и в приложениях для информационных и справочных служб
Распознавание речи в телефонии и в приложениях для информационных и справочных служб (так называемых контакт-центров, или call-центров) — это сегодня уже широко распространенная промышленная технология, которая применяется во многих современных мобильных телефонах и в справочных службах.
Интеллектуальные речевые решения, позволяющие автоматически синтезировать и распознавать человеческую речь, являются следующей ступенью развития интерактивных голосовых систем (IVR). Использование интерактивного телефонного приложения в настоящее время не веяние моды, а жизненная необходимость. Снижение нагрузки на операторов информационных служб и секретарей, сокращение расходов на оплату труда и повышение производительности систем обслуживания — вот только некоторые преимущества, доказывающие целесообразность подобных решений.
Интеллектуальные речевые решения упрощают
работу операторов информационных служб
Сегодня в интерактивных телефонных приложениях все чаще используются системы автоматического распознавания и синтеза речи. В этом случае общение с голосовым порталом становится более естественным, так как выбор в нем может быть осуществлен не только с помощью тонового набора, но и посредством голосовых команд. При этом современные системы распознавания независимы от произношения, то есть распознают голос любого человека. Основным преимуществом автоматизированных голосовых систем является их дружелюбность по отношению к пользователю — вопрошающий избавляется от необходимости продираться сквозь сложные и запутанные лабиринты голосовых меню. Теперь достаточно назвать цель звонка, после чего голосовая система автоматически переместит звонящего в нужный пункт (это могут быть, например, справочные службы, автоматизированные коммутаторы предприятий или системы телемаркетинга — обзвона клиентов, заказа билетов и т.д.).
Как показывает практика (и зарубежная, и отечественная), на самом деле клиенты обычно задают одни и те же вопросы, поэтому можно довольно быстро подготовить исчерпывающий реестр ответов, которым вполне может оперировать компьютерная программа, обслуживающая многоканальный телефон. Примером может служить разработка фирмы Voice Control Systems (VCS) — плата распознавания голосовых команд Antares, способная обслуживать до 32 телефонных каналов единовременно.
Подобные функции служат и для голосового управления функциями телефонов и коммуникаторов в условиях ограниченного применения других интерфейсов. Многие пользователи мобильной связи давно получили возможность голосового набора в мобильных телефонах вместо ввода длинного ряда цифр или выбора опций из меню по заранее определенным ключевым словам, причем управляющие команды в современных телефонах также практически не зависят от произношения (голоса говорящего) и не требуют предварительной тренировки. Если же у вас возникнут проблемы с голосовым набором, вы можете включить обучение системы, своего рода подстройку под особенности вашего голоса. В этой области уже достигнуты серьезные успехи, а многомодальные интерфейсы комбинируют ввод речи с синтезом возможных ответов или уточнений. Так, распознавание речи сегодня успешно применяется совместно с предикативными системами набора текстов для мобильных телефонов T9 или iTAP — интеграция речевого распознавания с подобными предикативными системами делает набор текста в телефоне еще более простым и эффективным.
Автоматизированный диалог, в котором система расспрашивает абонента для осуществления дальнейшей навигации, является сегодня вполне обычным и отработанным подходом, и мы не стали бы рассматривать эти технологии так подробно, если бы не имели проблем в русскоговорящих системах. Ведь в то время, когда особо продвинутые контакт-центры на Западе поддерживают даже подобие естественного языка, на котором робот может легко ответить на вопрос и направить абонента в соответствующее место или сообщить ему необходимую информацию, у нас до сих пор распространены только системы, имеющие весьма ограниченные возможности и осуществляющие выбор из не слишком обширного списка вопросов-ответов. Однако и такие системы позволяют существенно повысить эффективность соответствующих служб и должны внедряться более активно. Также для управления мобильными устройствами люди все чаще используют голосовые команды, вызывают голосом абонентов из записной книжки, выбирают музыку из альбомов мобильного телефона или коммуникатора, а также широко пользуются голосовым управлением для ввода текста, когда посылают простые SMS-сообщения.
Дальнейшее развитие подобных систем, естественно, связывают с успехами в области распознавания живой речи, так же как и на настольных и мобильных компьютерах, хотя большая специализация телефонных систем позволяет меньше зависеть и от фоновых шумов, и от объема предикативного словаря, и от ясности речи говорящего, и от мощности обрабатывающего процессора. Так что и в настоящее время работа по расширению возможностей систем распознавания речи в телефонии и в приложениях для контакт-центров, увеличению их вариативности, а также ведению автоматизированных диалогов на языке, все более приближающемся к естественному, еще далека от завершения.
Синтез речи
Успехи в области преобразования текста в живую речь в последнее время особенно впечатляют. Несмотря на то что роботизированный звук все еще отличается от человеческой речи, применение синтеза уже ни у кого не вызывает отторжения, хотя, согласно многочисленным исследованиям, при бесстрастном и лишенном эмоциональной окраски произнесении текстов часть смысла теряется. Сегодня системы синтезированной речи могут произнести SMS-сообщение на телефоне и письмо, присланное электронной почтой, озвучить указания автомобильной навигационной системы и даже заменить во многих службах оператора-человека. Во всем мире службы автоматического оповещения получили уже довольно широкое распространение, что позволяет говорить об этой технологии как о состоявшейся и даже в какой-то мере банальной. Однако положение с распространением этой технологии в России пока не позволяет нам забыть о ней и перестать следить за ее развитием, хотя бесстрастные телефонные голоса роботов-рекламщиков или напоминание должникам о просроченной задолженности по уплате за телефонные разговоры, наверное, слышали уже многие.
Синтез речи давно уже не является новинкой,
а подобные базовые средства встроены
во многие операционные системы
На российском рынке много так называемых локализованных систем подобного рода, в которых качество родной речи страдает. Однако в последнее время появляется все больше отечественных продуктов, которые несомненно найдут своего покупателя.
Продукты компании «Сакрамент», предназначенные
для отечественных разработчиков
Неплохое ПО по синтезу русской речи для всех платформ выпускает белорусская компания «Сакрамент», причем Sakrament TTS (Text-to-Speech) Engine — движок, осуществляющий качественный речевой синтез, — может использоваться и как отдельное приложение для озвучивания электронных текстов, и как универсальный речевой движок для других приложений, а также для интеграции с различными информационными системами. Компания продает также SDK для разработчиков под различные платформы. Система синтеза речи построена таким образом, чтобы сохранять речевые особенности того диктора, по записям которого создавалась акустическая база данных, что позволяет сделать речь синтезатора более «человеческой», а также обеспечить пользователей широким выбором отличающихся друг от друга голосов. Имеются системы автоматического синтеза и распознавания речи и у отечественных разработчиков, причем это направление в русскоязычной среде до сих пор является весьма актуальным.
Машинный перевод
Автоматический перевод с одного языка на другой уже получил широкое распространение, однако ожиданий до сих пор не оправдал — пока эта технология позволяет понять лишь общий смысл текстов, но не годится для документов, требующих точного и высококачественного перевода. Однако системы, позволяющие частично автоматизировать процесс перевода, сегодня уже активно применяются даже профессиональными переводчиками. Во-первых, потому что они удобны при обработке переводов (сканирование/форматирование) во-вторых, имеют удобные возможности для поиска слов и выражений в электронных словарях; в-третьих, позволяют ускорить перевод, освободив от необходимости повторного перевода того, что уже было переведено ранее (при использовании, например, технологии Translation Memory). То есть системы автоматизации перевода до сих пор только помогают человеку, а не работают за него. Но в руках мастера они могут обеспечить быстрый и адекватный перевод, экономя время и средства.
В области машинного перевода Россия не отстает от общемировых тенденций
Из последних достижений систем автоматизированного перевода можно отметить внедрение статистических подходов, которые позволяют машинным переводчикам постепенно обучаться и использовать для коррекции перевода огромные базы текстов, ранее переведенных людьми. Такие системы получили, например, широкое распространение в онлайновом переводе, который необходим для интернационализации Интернета. Однако и там системы машинного перевода по-прежнему применяются только для оценки общего смысла контента на веб-страницах.
К счастью, в России в этой области работают сильные компании, например «Промт» и ABBYY (семейство словарей Lingvo), так что здесь наше отставание от общемировых тенденций не так ощутимо, как в некоторых других областях.
Распознавание рукописного текста
Системы распознавания рукописного текста (преобразования рукописного письма в соответствующий печатный текст или команды в режиме реального времени) наконец вступили в область зрелых промышленных технологий, готовых к широкому применению и при работе с русским языком.
Например, разработанный в 2008 году новый механизм распознавания в программе PenReader компании Paragon Software реализует быстрый и точный рукописный ввод на русском языке даже при слитном написании текста. Новая программа предназначена для КПК Pocket PC/Windows Mobile и может выполнять роль электронного блокнота. А недавно компания Paragon Software представила приложение, получившее название PenReader Touch, которое позволяет распознавать рукописный текст, написанный просто пальцем на экране (без использования специального пера — стилуса). К сожалению, для настольных ПК версии для распознавания слитного текста у компании Paragon Software пока нет.
Новая версия Русского PenReader v8.0 теперь
распознает слитное написание текста
Несколько преждевременно появившись на рынке в ранних КПК (где они использовались большей частью в сильно формализованном виде, поэтому для надежного распознавания приходилось писать специальными значками типа стенографических), эти технологии вызвали некоторое разочарование, но сейчас, спустя много лет, они получают широкое применение в различных мобильных устройствах и даже на настольных ПК, оборудованных планшетами для ввода рукописного текста. Реально работающие технологии рукописного ввода уже давно и широко используются в таких отраслях, как почта, финансовые операции и заполнение каких-либо стандартизованных форм.
Сегодня в продаже имеется целый ряд недорогих цифровых блокнотов, которые при подключении по USB-интерфейсу к настольному компьютеру под Windows Vista распознаются как планшетные ПК (Tablet PC) и отрабатывают распознавание текста. Опцию рукописного ввода слитного текста можно использовать даже при наборе прямо в тестовом редакторе Microsoft Word. При применении панели рукописного ввода текст в поле ввода можно писать непрерывно, как на листе бумаги, а компьютер сразу преобразовывает его в печатный вид, делая при этом предикативные текстовые подсказки при наборе и исправляя ошибки. Такие инструменты уже стали стандартными, причем не только в операционных системах семейства Windows, но, к сожалению, русский язык в рукописном вводе пока практически нигде не поддерживается и при переключении клавиатуры Tablet PC на ввод русского текста остается доступной только символьная экранная клавиатура.
Цифровое перо (Digital Pens)
Цифровые ручки имеют встроенные датчики, которые захватывают и переводят движение пера в цифровую форму, благодаря чему пользователь может создать образец своего почерка в компьютере. Некоторые модели подобных ручек могут работать на обычной бумаге, одновременно рисуя по ней стержнем или карандашом, другие — только на специальных планшетах или сетках, облегчающих распознавание формы символов. Причем скорость внедрения и широта распространения таких устройств превзошли ожидания экспертов и сегодня уже можно приобрести совсем недорогие решения, успешно использующие подобные технологии.
Такие изделия в основном применяются для быстрого сохранения электронной копии бумажного оригинала в виде картинки в так называемых цифровых блокнотах, что, впрочем, может рассматриваться только как временное решение (например, для архивного хранения, отсылки по факсу или электронной почте). При использовании дополнительного ПО можно переводить написанное в символьную форму, преобразуя его сразу в печатный текст (впрочем, как правило, такие программы уверенно преобразуют в символьную форму только отдельно записываемую рукописную букву, число или знак, но в недалеком будущем их можно будет применять и для надежного распознавания связной рукописной записи и перевода ее в цифровую форму в виде текста).
Сегодня на рынке имеется широкий выбор планшетов
и цифровых перьев
различной конструкции
Так что если вам часто приходится записывать лекции, заметки, протоколы встреч и другую важную информацию, то уже сегодня все это удобнее делать не только в бумажном, но и в электронном виде. Особенно пригодится такое многофункциональное цифровое перо студентам (которые могут распечатывать спасительные шпаргалки для экзаменов сразу в значительно уменьшенном виде), медицинским и страховым работникам, продавцам и офисным клеркам. С помощью электронного блокнота можно легко делать рукописные заметки, рисунки, схемы и чертежи и всегда иметь под рукой электронный вариант документа.
Из разработчиков технологии цифровых перьев можно отметить такие компании, как Anoto, Hewlett-Packard, Pegasus Technologies и Standard Register. В нашем журнале мы уже описывали цифровые блокноты с подобными ручками, такие как Genius G-Note, Aiptek MyNote, Cross Crosspads, Logitech io series и др.
Распознавание жестов (Gesture Recognition)
Системы распознавания жестов являются одним из способов реализации интерфейса для ввода информации и управляющих команд в ПК, мобильные устройства, телефоны, игровые консоли или даже бытовые устройства. Как правило, подобные системы включают аппаратные средства, преобразующие жесты в цифровой вид (сегодня это, как правило, видеокамеры), и программные компоненты, собственно осуществляющие их распознавание.
В настоящее время наиболее распространенными являются подобные системы, выполняющие распознавание жестов по графическому образу. В этом случае изображение с видеокамеры передается в специализированную программу, которая осуществляет поиск изображений рук (головы, тела и т.д.) пользователя и, сопоставляя их очертания с эталонными образами, хранящимися в базе данных, выполняет распознавание жестов. С каждым из эталонных образов может быть ассоциирована определенная команда (символ, последовательность символов и т.д.), которая при корректном распознавании соответствующего жеста передается операционной системе или определенному приложению. В зависимости от реализации программного компонента система распознавания жестов может быть настроена на восприятие движения рук, головы, глаз, губ и т.д. В бытовых электронных устройствах система распознавания жестов может быть реализована либо на программном уровне, либо на базе специализированного чипа (ASIC).
Сегодня уже продаются телефоны
с функциями распознавания движения,
но пока они носят скорее рекламный
или имиджевый характер
С массовым оснащением мобильных телефонов цифровыми камерами туда стали внедрять и технологии распознавания жестов с помощью этих камер. Например, несложные системы распознавания жестов (они называются Motion Recognition, Motion Control или Shake Control) имеются в некоторых моделях телефонов Nokia и Samsung.
Впрочем, у компании Samsung есть целый ряд оригинальных технологий, использующих датчики движения: аппараты способны воспринимать движения кисти руки, сжимающей телефон, и интерпретировать их как символы или команды. Такая возможность может пригодиться, например, для ввода номера (на снимке видно, как взмахи руки в виде цифры 3 приводят к распознаванию и набору тройки в мобильном телефоне Samsung SCH-S310, выпущенном еще в 2005 году). Зигзагообразный мах в виде литеры S активирует режим написания SMS, а литера «С» переключит телефон в режим камеры. Впрочем, особого коммерческого успеха этим аппаратам такая функция не принесла (хотя компания Samsung получила 22 патента в Южной Корее и других странах мира на технологию распознавания движения), и до сих пор она является скорее рекламной и/или имиджевой. Однако Samsung продолжает разрабатывать технологию «мобильного движения» в таких аппаратах, как PH-S4000 и SCH-S400, где функции можно контролировать, просто тряся телефон из стороны в сторону. Например, чтобы промотать аудиофайлы в MP3-плеере, достаточно просто потрясти телефон и перевернуть его с одной стороны на другую, а чтобы выключить музыку — опустить его экраном вниз. С помощью движения можно переключаться из альбомной ориентации экрана в книжную при просмотре видео или фотографировании. Также можно играть в игры, используя движения вместо джойстика. На российском рынке с подобной функцией сейчас продаются аппараты Samsung GT-M3510 BEAT (с расширенными музыкальными функциями) и SGH-E750/E770 (игровые «раскладушки» с функцией распознавания жестов). Однако в недалеком будущем компания Samsung планирует создать удобный бесконтактный метод управления всеми мобильными телефонами. Причем, судя по описанию в патентной заявке, этот способ довольно просто адаптируется ко всем существующим моделям камерафонов. В случае успеха данной технологии распознавание жестов, возможно, будет применяться не только в мобильных телефонах, но и в других портативных электронных устройствах, дополняя такие более привычные устройства ввода, как клавиатура и сенсорный экран.
На протяжении ряда лет технологии распознавания жестов широко применяются и в компьютерных играх. Например, еще в популярной игровой приставке Sony PlayStation 2 появилась интерактивная игра EyeToy Play, позволяющая управлять снимаемыми с помощью специальной камеры движениями вместо использования традиционных контроллеров. Когда же появилась Sony PlayStation 3, то видеокамера PlayStation Eye поддерживалась уже целым семейством игр и даже специально созданной интерактивной виртуальной средой Augment Reality, где в виртуальных комнатах живут управляемые жестами рук персонажи и даже имеется своеобразная система графического ввода.
Существует также подобный интерфейс от компании Softkinetic (http://www.softkinetic.net), который распознает жесты посредством 3D-камер и передает их в виртуальное пространство компьютера. Игровой персонаж в реальном времени повторит все ваши жесты, причем вам не понадобится для этого обвешиваться какими-то датчиками и проводами. Кроме вышеописанных, существует также технология компании CamSpace (http://www.camspace.com/), которая, в отличие от системы распознавания жестов SoftKinetic, опирается в своей работе на специальные маркеры, перемещаемые в поле зрения веб-камеры. В качестве такого маркера может быть использован любой предмет яркой окраски (выделяющейся из общего фона) — это может быть цветная картонка, яркая пластиковая бутылка или просто обмотанный цветным скотчем палец.
EyePet — виртуальный питомец Sony PlayStation 3,
пришедший на смену Тамагочи
Подобные технологии предполагается применять не только в игрушках, но и в бытовых и даже технических нуждах. Например, компания Toshiba собирается выпускать различные мультимедийные плееры, ноутбуки серии Qosmio и даже телевизоры, отличительной особенностью которых является возможность переключения режимов работы и вызова функций не нажатием кнопок, а определенными жестами. В этих устройствах используются специальный процессор для обработки изображения, встроенные камеры и ПО для распознавания жестов. В ноутбуке можно управлять такими приложениями, как Toshiba DVD player и Media Center, а также PowerPoint, не прибегая к помощи клавиатуры и мыши. Правда, радиус действия технологии пока ограничивается 1-3 м, причем работа с нею требует аккуратности. Тем не менее система может надежно интерпретировать жесты рук в режиме реального времени и довольно четко выполнять команды.
Изначально технология распознавания изображений создавалась в собственной лаборатории Toshiba в Кембридже (Великобритания). Данная система способна «видеть» руку человека и различать как ее положения, так и жесты. Уже в ближайшем будущем компания Toshiba планирует внедрить технологию распознавания образов в серийные продукты. Система управления жестами должна будет стать запасным интерфейсом в дополнение к привычному пульту дистанционного управления. Технологии распознавания образов планируется использовать и в таких приложениях, как развивающие игры для детей, где дети будут выбирать необходимые карточки по запросу инструктора или по указаниям с экрана телевизора.
Хотя в течение ближайших нескольких лет можно ожидать увеличения количества моделей сотовых телефонов и других устройств, распознающих простые жесты для управления некоторыми функциями пользовательского интерфейса, но о серьезном использовании подобных технологий говорить еще рано. Как считают аналитики, в ближайшем будущем основными сферами применения данного решения будут все-таки игровые и развлекательные приложения, а также интерфейсы для людей с ограниченными физическими возможностями.
Поиск на естественном языке
Запросы к поисковым системам обычно формулируются не на естественном, а на формализованном языке запросов, синтаксис и особенности которого зависят от конкретной поисковой системы. Однако расширение аудитории интернет-пользователей заставляет разработчиков задумываться над созданием технологии поиска на естественном языке, чтобы поисковая система не требовала формализации запроса, а понимала вопросы, заданные на обычном языке, и выдавала ответы, основанные на смысловом значении фраз, а не на отдельных ключевых словах. Причем эта технология в дальнейшем будет использоваться не только при введении текста запроса, но и при распознавании речи, то есть поиск можно будет осуществлять прямо с голоса (для этого потребуются такие же алгоритмы обработки и распознавания естественного языка, как и для систем машинного перевода).
Пионером подобной технологии был Ask.com. На данный момент самыми успешными являются Hakia.com и Powerset.com, однако последний плохо работает с русским языком. Кроме того, у нас есть неплохой отечественный поисковик, который прекрасно работает с русским языком и выдает даже более полезные ответы, чем Hakia.com.
Ask.com — патриарх среди систем поиска
на естественных языках
Все они (правда, разными путями) пытаются понять семантику значения, которое стоит за запросом пользователя. Проще говоря, эти поисковики анализируют всё предложение, в то время как популярный Google (и подавляющее количество других поисковиков) — лишь ключевые слова. Кроме того, поисковики типа Google не принимают во внимание то, что так называемые стоп-слова могут быть весьма существенными (например, такие связующие слова, как «для», «о», «в», «из» и т.д. Google традиционно не рассматривает), и не анализируют длинных запросов. Попробуйте задать, например, популярному поисковику традиционного типа запрос из десятка слов. У традиционного поисковика, который использует алгоритмы популярности, никогда не будет достаточно данных, чтобы справиться со столь длинным запросом, так как для ответа на него поисковая система должна понимать естественный язык! И главное — индексация как поисковый принцип уже устаревает и захлебывается в мошенничестве, так что поисковым системам будущего неизбежно придется не только индексировать, но и анализировать контент, что пока еще не во власти традиционных поисковых систем. Впрочем, Google уже готов к использованию семантических технологий. Имея столько данных, сколько есть в его базе, он вполне способен распознавать значения слов и синонимы.
Однако основатели поисковых систем на естественных языках говорят уже о том, что со временем они пойдут дальше, нежели простой анализ ключевых слов, и станут настоящими помощниками, с которыми у вас будет обратная связь.
К сожалению, оптимизма в отношении этой проблемы до сих пор немного, а технологии поиска на естественном языке очень далеки от реального применения. Кроме того, очевидные лидеры в области поисковых систем, такие как Google, Yahoo, Microsoft MSN и даже наш Яндекс, заняты сегодня совершенно иными проблемами (повышением качества поиска при использовании существующих технологий, борьбой с мошенничеством, «накрутками» индексов PageRank, коммерческими ссылками и т.д.). А пока ведущие игроки этого рынка не обратят внимание на обработку естественного языка поисковых запросов, серьезных подвижек в данной области не будет и все это так и останется отдаленной мечтой. Так что надеяться на осмысленный ответ на запрос «Когда выпадет снег?» в ближайшем будущем не приходится, хотя поисковые системы на естественном языке, безусловно, полезны уже сегодня (попробуйте, например, спросить: «Сколько долларов стоит грамм золота?» — у разных поисковых систем).
«Умные» ткани (Fabric Sensors)
Высокотехнологичная «начинка» изменяет сегодня даже свойства привычных тканей, используемых в одежде, обуви, сумках и обивочных материалах. Вспомните самое популярное «одежное» открытие последних десятилетий — «дышащий» и при этом непромокающий детский подгузник. Причем направление новых исследований определяют не только теоретические возможности новых материалов, но и требования жизни. Например, новые законы в американском автомобилестроении заставили ученых искать ткани, которые за счет изменений в давлении могли бы сообщать автомобильному компьютеру, кто сидит в машине — ребенок или взрослый (это важно при срабатывании систем активной безопасности типа надувных подушек и шторок). Следующим этапом станет измерение сиденьем биофизических параметров водителя. Это позволит отслеживать его самочувствие и не допустит, например, управления автомобилем при повышенном утомлении, сонливости или в нетрезвом состоянии. А сингапурский профессор Фрэнсис Тей вшил в куртку сенсор, отслеживающий резкие наклоны корпуса: в случае падения человека куртка звонит в службу спасения. Другая простая технология предусматривает использование специальных электронных меток в одежде, которые могут работать как идентификаторы принадлежности или даже образовывать одежную мини-сеть, которая будет проверять свою целостность, — представьте, например, куртку, которая будет сигнализировать вам, если вы забудете перчатки или зонтик.
Гибкие клавиатуры из тканого материала,
выпускаемые компанией Eleksen (фото Eleksen)
Кевлар, разработанный в лабораториях компании «Дюпон» (крупнейшего в мире производителя синтетических материалов), сегодня предохраняет мотоциклистов от травм при падении, а следующие разработки этой компании со временем позволят одежде, сшитой из новых тканей, передавать сигналы о местонахождении и самочувствии одетого в такой костюм человека, а в случае перелома формировать на его руке или ноге подобие гипсовой повязки. Компания Adidas уже продает кроссовки, которые могут вычислять нагрузку на стопу и менять форму подошвы при разных типах движения.
В общем, нынешней синтетикой можно гордиться. На новых куртках вместе с внушительными ценниками — увесистые руководства, рассказывающие, из чего сделано их покрытие. Непромокаемое и одновременно «дышащее», легкое и прочное, тонкое, но при этом сберегающее тепло. На квадратном сантиметре ткани GoreTex умещаются полтора миллиарда пор — они позволяют человеку не потеть, но не пропускают куда более крупные капли дождя. А «умные» ткани Polartec в два раза теплее, чем шерсть, но в них никогда не потеешь. Специалисты называют такие материалы «тканями переменной фазы». Более эффективные ткани такого типа будут создаваться с использованием нанотехнологий. Так, специалисты из University of Bath разрабатывают материал, работающий по принципу сосновых шишек: микроскопические «чешуйки» открывают доступ воздуху, когда владелец одежды потеет, и снова закрываются, когда холодно.
Встраиваемые тактильные сенсоры в одежде
и аксессуарах уже стали реальностью
(фото Eleksen)
Недавно голландские ученые разработали особый тип спортивной одежды со встроенными сенсорами и вибрирующими вставками, которые будут сообщать спортсмену, выполняет ли он то или иное действие на оптимальном для себя уровне. Вставки, расположенные на уровне талии и на лодыжках, регистрируют, с какой скоростью двигается спортсмен и насколько скоординированы его движения. Если он теряет ритм, вставки в соответствующих зонах начинают вибрировать, чтобы помочь ему вернуть темп.
Ученые изготовили также жилет для лыжников с вибрирующими вставками на уровне плеч и бедер. Его уже испытывают голландские лыжные тренеры. Что касается футболистов, то ученые работают над созданием одежды с дистанционным управлением, чтобы тренеры могли повлиять на спортсменов, неправильно наносящих удары по мячу.
Но если одежда, заботящаяся о самочувствии и здоровье человека, находится еще на стадии разработки, то куртку со встроенным в рукав пультом управления портативным медиаплеером или мобильным телефоном можно приобрести уже сейчас. Одним из первых коммерческих продуктов подобного рода стали гибкие клавиатуры из тканного материала, появившиеся в продаже несколько лет тому назад.
По мнению экспертов, в будущем сенсорные ткани получат широкое распространение в самых разных категориях изделий: спортивной одежде и аксессуарах, мобильных устройствах, автомобилях и т.д. Кроме того, большой интерес к данной технологии проявляют военные.
В настоящее время распространенность встраиваемых сенсоров невелика и составляет не более 1% целевой аудитории. Исследования в области технологий создания встраиваемых сенсоров ведут компании Eeonyx, Eleksen, Philips, Textronics и др.
Интерфейс «мозг — компьютер»
Устройства, позволяющие вводить данные и передавать команды компьютеру силой мысли, существуют не только на страницах научно-фантастических романов. Некоторые из них уже покинули стены исследовательских лабораторий и доступны для всех желающих.
На выставке CeBit 2006 сотрудники немецкого института Fraunhofer продемонстрировали действующий прототип экспериментального устройства, позволяющего в буквальном смысле силой мысли вводить символы и управлять движением курсора на экране компьютера. Аппаратная часть прототипа представляет собой специальный шлем, в который вмонтировано 128 датчиков (подобных используемым для снятия электроэнцефалограммы), считывающих биотоки мозга. Работа с этим устройством требует определенной тренировки и пока не отличается высокой скоростью: например, для того чтобы набрать одно предложение, подготовленному пользователю понадобится от 5 до 10 минут.
Прототип бытового манипулятора,
управляемого силой мысли
В разделе технологий будущего (Future Park) на прошлогодней выставке CeBit 2008 можно было увидеть в действии прототип манипулятора, который позволит больным с парализованными конечностями пользоваться различными предметами — например вынимать из холодильника бутылку с водой и переливать ее содержимое в стакан.
В минувшем году появились и первые серийные изделия, дающие возможность путем мысленной концентрации передавать управляющие команды в ПК. Весной американская компания NeuroSky объявила о разработке портативного устройства MindSet, которое позволяет улавливать электромагнитные импульсы мозга и преобразовывать их в поток данных для генерации управляющих команд. Конструктивно MindSet представляет собой модуль, встраиваемый в дужку наушников. Управление перемещением курсора осуществляется посредством движений глаз, а воздействие на объекты производится путем мысленной концентрации. Ожидается, что уже в скором времени устройство MindSet будет доступно в виде серийно выпускаемого изделия.
Шлем интерфейса Emotiv EPOC
В феврале 2008 года на конференции Game Developers Conference компания Emotiv Systems представила предсерийный образец интерфейса Emotiv EPOC для игровых консолей. Надеваемое на голову устройство позволяет управлять игровым процессом при помощи мимики, мыслей и эмоций. Для считывания мозговых импульсов применяется метод бесконтактной электроэнцефалограммы. На данном этапе технология позволяет с высокой точностью определять три десятка эмоций, мимических действий и психических состояний (улыбка, смех, подмигивание, гнев, волнение, размышление, напряженность, расстройство и пр.).
На веб-сайте Emotiv Systems уже открыта предварительная подписка на приобретение Emotiv EPOC (правда, пока только для жителей США). Разработчики считают, что в будущем сфера применения подобных манипуляторов будет значительно расширена. В минувшем году Emotiv Systems заключила соглашение с компанией IBM, условия которого предусматривают совместную работу по внедрению технологии Emotiv EPOC в бизнес-приложениях и виртуальных мирах.
На выставке CeBIT 2008 компания OCZ представила серийную версию игрового манипулятора Neural Impulse Actuator (NIA), а уже во II квартале стартовали розничные продажи этого устройства в странах ЕС. В основе работы NIA лежит так называемый нейронный интерфейс (NI). Формирование управляющих команд, которые передаются в компьютер, осуществляется путем преобразования биопотенциалов, считываемых специальными датчиками с головы пользователя. Конструкция манипулятора позволяет анализировать мышечную, кожную и нервную активность пользователя, включая симпатические и парасимпатические компоненты. Одной из особенностей NIA является возможность подстраиваться под особенности конкретного пользователя. Впрочем, пока этот манипулятор позиционируется не как полноценная альтернатива традиционным устройствам ввода, а скорее дополнение к ним.
Серийно выпускаемый манипулятор OCZ NIA
В настоящее время работы в области создания полнофункционального интерфейса «мозг — компьютер» находятся на стадии научных исследований и создания экспериментальных прототипов. Первые серийные модели манипуляторов, появившиеся в продаже в минувшем году, не стоит воспринимать всерьез — пока это лишь высокотехнологичные игрушки для любителей электронной экзотики. Помимо чисто технических проблем, связанных с недостаточно высокой стабильностью и низкой точностью распознавания нейроимпульсов, массовому распространению подобных интерфейсный устройств препятствует и традиционный подход к разработке графических интерфейсов современных ОС и приложений, ориентированный преимущественно на применение традиционных клавиатуры и мыши.
Специалисты считают, что значительно улучшить стабильность и точность распознавания нейроимпульсов можно при помощи вживляемых в мозг электродов. К сожалению, подобное решение в силу целого ряда причин неприменимо для массового использования. По мнению аналитиков, массовое распространение интерфейсные устройства «мозг — компьютер» получат через 5-10 лет.
Телекоммуникации
Системы платежей на базе бесконтактных чипов (NFC)
Данное решение позволяет оплачивать недорогие покупки и услуги при помощи мобильного телефона, снабженного специальным беспроводным чипом с небольшим радиусом действия (Near-Field Communications, NFC). Для подтверждения платежа пользователю достаточно поднести свой телефон к считывающему устройству — подобно тому, как осуществляется оплата проезда в метро при помощи смарт-карты. Радиус действия NFC-чипа составляет около 10 см.
Подобное решение позволяет сделать значительно более удобными расчеты при совершении небольших платежей. Во-первых, пользователю не надо искать в кармане мелочь, а во-вторых, для считывания зашифрованного идентификационного кода потребуется гораздо меньше времени, чем для совершения наличного расчета или подтверждения транзакции, осуществляемой посредством пластиковой банковской карты.
В настоящее время системы платежей на базе бесконтактных NFC-чипов находятся на начальной стадии коммерциализации. Крупнейшие в мире поставщики беспроводных чипов для платежных систем на базе NFC — компании NXP Semiconductors и Giesecke & Devrient. Наиболее масштабный на данный момент проект по внедрению системы платежей на базе NFC реализован в Японии компанией NTT DoCoMo. Что касается европейских стран, то наиболее быстрыми темпами системы платежей на базе NFC в настоящее время развиваются в Германии — там уже реализована возможность оплаты проезда в общественном транспорте, а также небольших покупок в ряде розничных торговых сетей. Начиная с февраля 2008 года возможность оплачивать проезд на наземном общественном транспорте посредством встроенного в мобильный телефон бесконтактного NFC-чипа появилась и у жителей Москвы.
Мобильный телефон Nokia 3220 — одна
из немногих моделей, обеспечивающих техническую
возможность совершения бесконтактных платежей
(фото Nokia)
В 2007 году компания MasterCard развернула на территории штата Техас систему мобильных платежей MasterCard PayPass, базирующуюся на технологии NFC. Бесконтактные терминалы, позволяющие осуществлять платежи на сумму до 25 долл., были установлены в 32 тыс. торговых точках. В качестве клиентского оборудования используются мобильные телефоны Nokia 3220, оснащенные NFC-чипом компании Giesecke & Devrient. Чтобы подключить аппарат к системе MasterCard PayPass, пользователю необходимо отправить соответствующий запрос в банк, после чего будет автоматически произведена загрузка, установка и настройка приложения PayPass.
Жители США уже могут воспользоваться системой MasterCard PayPass для оплаты покупок и услуг в сетях 7-Elevens, McDonald’s и ряда других сетей. Пилотные проекты по внедрению системы бесконтактных платежей MasterCard PayPass развернуты на территории Канады, Великобритании, Японии, Южной Кореи, Китая, Тайланда, Турции, Ливана, Малайзии, Австралии и Тайваня.
Мобильный телефон с NFC-чипом сможет
во многих случаях заменить кошелек и банковскую карту
(фото Nokia)
Широкому распространению систем бесконтактных платежей пока препятствует ряд проблем, наличие которых обусловлено как недостаточной проработанностью технической стороны вопроса, так и несовершенством бизнес-модели. Для реализации возможности работы с платежными системами необходимо не только развернуть соответствующую инфраструктуру (в частности, установить платежные терминалы в точках продаж), но и модернизировать аппаратную и программную часть используемых мобильных телефонов. Ситуация осложняется тем, что в настоящее время существует несколько различных вариантов реализации данного решения, а спецификации и стандарты, описывающие требования к оборудованию NFC, постоянно меняются. Необходимо также учитывать, что в данной системе задействовано множество компонентов (беспроводные чипы, считывающие устройства, мобильные телефоны, программное обеспечение и пр.), которые разрабатывают и выпускают разные производители. Столкновение интересов множества вовлеченных в процесс компаний неизбежно порождает определенные противоречия.
Пока остается весьма ограниченным ассортимент моделей мобильных телефонов, обеспечивающих техническую возможность работы с бесконтактными платежными системами на базе NFC. До 2007 года практически монопольное положение в этом сегменте занимала компания Nokia. Весной 2007 года ассоциация GSM Association запустила проект Pay-Buy Mobile, основной целью которого является развитие, продвижение и популяризация систем бесконтактных платежей на базе технологии NFC. О поддержке проекта Pay-Buy Mobile, одним из инициаторов создания которого является Nokia, объявили компании Samsung и LG Electronics, а также многие крупные операторы сотовой связи, в частности KPN, Maxis Communications Bhd, Mobilkom Austria, O2, Orange, SFR, SingTel, SKT, Vodafone и Wind. Собственные проекты по реализации систем бесконтактных платежей разворачивают международные платежные системы MasterCard и Visa. Согласно прогнозам аналитической компании ABI Research, к 2012 году количество мобильных телефонов, обеспечивающих техническую возможность применения бесконтактных платежных систем на базе технологии NFC, составит уже порядка 300 млн шт.
Как считают специалисты, создание разветвленной инфраструктуры, способной обеспечить массовое внедрение бесконтактных платежных систем на базе технологии NFC, станет возможным не ранее чем через два-три года. Важным условием является переход к использованию единого технического решения, которое обеспечит перекрестную совместимость клиентского оборудования с платежными терминалами и банковскими системами.
Сотовые сети четвертого поколения (4G)
Разработкой проектов для создания сетей мобильной связи четвертного поколения (4th Generation, 4G) занимаются параллельно несколько международных организаций и комиссий: ITU-R (International Telecommunication Union Radiocommunication Sector — Сектор радиокоммуникаций международного телекоммуникационного союза), 3GPP (Third Generation Partnership Project — Партнерство по развитию сотовых сетей третьего поколения), IETF (Internet Engineering Task Force — Целевая группа по развитию Интернета), WINNER (Wireless World Initiative New Radio — Инициативная группа по развитию беспроводных коммуникаций). Каждая из них предлагает собственные технические решения, стандарты и технологии для реализации сетей четвертного поколения. По этой причине четкого и однозначного определения стандарта мобильной связи четвертного поколения пока не существует. Можно говорить лишь о том, что в сетях 4G будет использоваться пакетная передача данных по протоколу IPv6, а пропускная способность в направлении от базовой станции к абоненту составит не менее 10 Мбит/с.
Коммуникатор HTC Max 4G способен
работать в сетях mobile WiMAX и GSM
Участники 3GPP (Third Generation Partnership Project), в число которых входят такие компании, как Alcatel-Lucent, Ericsson, Motorola, Nokia, Intel, Orange, Qualcomm, Nokia Siemens Networks, Nortel, T-Mobile, Vodafone, China Mobile, NTT DoCoMo, Telecom Italia, Samsung, LG Electronics и др., предлагают в качестве базовой для реализации сотовых сетей 4G использовать технологию LTE (Long Term Evolution), которая является эволюционным развитием стандартов GSM, UMTS и HSDPA. В январе 2008 года окончательная спецификация стандарта LTE был одобрена участниками 3GPP. Как показали испытания тестовой сети LTE, проведенные компанией Nokia, скорость передачи данных с базовой станции на мобильный терминал достигает 326 Мбит/с, а в обратном направлении — 86 Мбит/с.
В ноябре минувшего года представители крупнейшего в Японии оператора связи NTT DoCoMo сообщили о своем намерении развернуть в 2010 году первую в мире коммерческую сотовую широкополосную сеть, работающую на основе стандарта LTE. Специалисты NTT DoCoMo начали тестирование нескольких технологий 4G еще в июле 2006 года и в итоге выбрали именно LTE.
Группа компаний, возглавляемая Intel, предлагает использовать для построения сотовых сетей четвертого поколения технологию mobile WiMAX (IEEE-802.16e). В июне 2008 года с целью ускорения массового распространения технологии и оборудования mobile WiMAX компании Alcatel-Lucent, Cisco, Clearwire, Intel, Samsung Electronics и Sprint сформировали открытый патентный альянс (Open Patent Alliance, OPA). В рамках OPA будет создан единый пул патентов WiMAX, доступ к которым на основе различных вариантов лицензирования и платежей получат все участники альянса.
1 октября 2008 года компания Sprint Nextel, занимающая третью строчку в списке крупнейших американских операторов сотовой связи, запустила в коммерческую эксплуатацию на территории США услугу мобильной широкополосной связи нового поколения 4G на базе технологии mobile WiMAX.
В России осенью 2008 года компания «Скартел» запустила в тестовую эксплуатацию 4G-сеть Yota, также базирующуюся на стандарте mobile WiMAX. В настоящее время зона покрытия этой сети охватывает центральные части Москвы и Санкт-Петербурга. Согласно информации, опубликованной на официальном веб-сайте Yota, начиная с апреля 2009 года сеть заработает в коммерческом режиме, а зона ее покрытия будет постепенно расширяться по мере ввода в строй новых базовых станций.
Не исключено, что китайские телекоммуникационные компании пойдут своим путем и выберут для построения сетей четвертого поколения стандарт TD-SCDMA (Time Division Synchronous Code Division Multiple Access). Данное решение имеет ряд существенных отличий от наиболее распространенных в настоящее время WCDMA, GSM и UMTS и не совместимо на аппаратном уровне с оборудованием перечисленных стандартов.
В середине прошлого года компания China Mobile, являющаяся на данный момент крупнейшим китайским оператором сотовой связи, начала тестирование решений на базе TD-SCDMA в закрытом режиме. Оборудование данного стандарта поставляет базирующаяся в Гонконге компания ZTE. Как отметили представители China Mobile, уже в 2010 году ее абоненты смогут пользоваться сервисами сотовых сетей четвертого поколения на всей территории Китая.
По мнению аналитиков, европейские и американские операторы сотовой связи вряд ли перейдут к освоению 4G, пока не получат ощутимую отдачу от инвестиций, вложенных в развертывание инфраструктуры 3G. Необходимо отметить, что проблема возврата инвестиций и обеспечения доходности бизнеса в настоящее время весьма актуальна для операторов сетей 3G, внедривших технологии высокоскоростной передачи данных (в частности, HSDPA/HSUPA), а с переходом к эксплуатации сетей 4G эта проблема станет еще более острой.
Широкое распространение сотовых сетей четвертого поколения ожидается не ранее 2010-2012 годов. Некоторые эксперты считают, что в ряде регионов в силу причин технического и экономического характера целесообразно сразу заменять сети второго поколения (2 и 2,5G) на 4G, минуя этап 3G.
Цифровое телевидение высокой четкости (HDTV)
Телевидение высокой четкости (HDTV) — это передовая и высокотехнологичная область цифрового телевидения. Изображение в HDTV имеет разрешение 1920x1080 пикселов, тогда как изображение стандартной четкости — всего 720x576. Благодаря этому HDTV-изображение становится более четким, детализированным и максимально приближенным к реальной картинке.
Современное развитие науки и техники как во всем мире, так и в России позволило подготовить техническую базу для внедрения телевидения высокой четкости. Сейчас в достаточном количестве выпускается как оборудование для производства HDTV-программ, включая камеры, рекордеры, микшеры, мониторы, системы нелинейного монтажа, так и системы для просмотра HDTV — телевизоры, ресиверы, коммутационное оборудование и др. Имеются готовые решения для внедрения HDTV во всех областях, включая спутниковое, кабельное и эфирное телевидение.
Сегодня в США, например, уже не регистрируют каналы в стандартной четкости, то есть выдаются лицензии только на HDTV-вещание (полное окончание аналогового телевещания в США намечено на февраль 2009 года). Процесс перехода к телевидению высокой четкости уже завершился в Японии, Корее и Австралии. Европа пока не полностью перешла на HDTV (этот процесс планируется завершить в 2010-2012 годах), но имеет уже несколько десятков открытых каналов эфирного вещания в стандарте высокой четкости (не считая спутниковых и кабельных каналов HDTV, а также IPTV высокой четкости). Порядка нескольких десятков HDTV-каналов европейского спутникового телевидения могут быть приняты и на территории России (как открытых, так и закодированных). Поэтому мы определяем эту технологию на «плато продуктивности», но отодвигаем ее массовое использование в России на десять и более лет.
Возможно, спортивные трансляции и передачи с зимней Олимпиады в Сочи в 2014 году будут осуществляться в режиме телевидения высокой четкости, однако массовое вещание в таком режиме начнется еще очень нескоро.
Стационарное цифровое телевидение (эфир)
Когда сегодня говорят о цифровом телевидении, то подразумевают цифровое телевидение высокой четкости (HDTV), которое является важным шагом в развитии традиционных вещательных технологий. Однако сегодня существует два пути развития HDTV: американский, когда при переходе на цифровое вещание одновременно произойдет и переход на HDTV, и второй подход — европейский, который заключается в том, что цифровое телевидение развивается на основе телевидения стандартной четкости, а начиная с определенного момента или в некоторых случаях параллельно каналы переходят на HDTV. Россия выбрала последнюю модель, поэтому не исключено, что эфирное HDTV появится у нас очень нескоро, причем до сих пор непонятно, будет ли у нас HDTV полноценным (1080) или усеченным (720).
Цифровое телевидение имеет универсальную технологическую платформу, но разделяется на разные типы вещания: спутниковое (DVB-S2, DVB-S); кабельное (DVB-C); эфирное (DVB-T); вещание по интернет-протоколам (IPTV) и мобильное цифровое вещание (DVB-H). Причем существует возможность эффективного перехода из одной среды вещания в другую. Что касается стандартов вещания, то по разрешению картинки выделяют цифровое телевидение стандартной четкости (SDTV), телевидение высокой четкости (HDTV), а также мобильное телевидение (Mobile TV QVGA).
Что касается перспектив развития в России эфирного цифрового телевидения стандартной четкости, то, по информации из Министерства информационных технологий и связи Российской Федерации, сети цифрового распространения будут построены у нас только к 2015 году, когда операторы связи и государство полностью профинансируют их строительство. До этого срока государство должно будет поддерживать сети аналогового распространения общероссийских программ. О тенденциях и перспективах развития цифрового телевидения в России можно почитать на сайте Научно-исследовательского института радио (ФГУП НИИР), который является системным институтом Министерства информационных технологий и связи Российской Федерации в области создания систем радиосвязи, спутниковых и наземных систем телевизионного звукового вещания и развития радиотехнологий (http://www.niir.ru/rus/page.php).
Впрочем, сегодня в России выдано уже более тысячи лицензий на предоставление услуг цифрового вещания, причем при переходе к вещанию в DVB-T в одном физическом канале будет передаваться не менее пяти программ, что, несомненно, вещателям очень выгодно. Так что коммерческое цифровое телевидение уже стартовало не только по кабелю или со спутника, но и в эфире (то есть когда оно принимается на обычную телевизионную антенну). Есть такое телевидение и в столице, но, к сожалению, сегодня оно представлено только закрытыми (скремблированными) каналами с платным доступом. В ряде регионов Российской Федерации вещатели уже приступили к открытым тестовым испытаниям, и вот уже несколько лет там можно смотреть ряд каналов общедоступного цифрового телевидения в формате DVB-T (как правило, речь идет о перекодированных в цифру каналах центрального телевидения и нескольких местных каналах). Причем отметим, что в 2008-2012 годах правительство должно принять решение о запрете на ввоз аналоговых телевизоров и начале производства цифровых телевизоров в России, чтобы полностью завершить переход на цифру до 2015 года. В качестве критериев, определяющих возможность прекращения аналогового вещания, в программе правительства заложены два показателя. Первый — доступность сигналов цифрового телевидения для 99-100% населения в местах его постоянного проживания, а второй — обеспечение 85-90% (точная цифра пока обсуждается) населения страны цифровыми телевизорами или цифровыми приставками (потребители могут получать сигнал по той же антенне или кабелю, что и раньше, но дополнительно требуется цифровой декодер для старого телевизионного приемника или новый телевизор с цифровым тюнером). По достижении этих показателей аналоговые сети страны по решению правительства должны будут прекратить существование.
Впрочем, спутниковое цифровое телевидение у нас уже давно есть, причем часть каналов идет в HDTV. Однако установка спутникового оборудования предполагает существенные затраты, на фоне которых смена телевизионного приемника не кажется обременительной (то есть пользователи спутниковых каналов проходят некий имущественный ценз), поэтому переход на цифровые форматы (даже высокой четкости) у владельцев спутниковых «тарелок» происходит автоматически.
Остается надеяться, что и «наземные» вещатели вынуждены будут активизировать переход к цифровому телевидению, а затем и к HDTV, чтобы быть конкурентоспособными спутниковым системам (пропускная способность которых, кстати, весьма ограниченна), а также набирающему обороты телевидению по интернет-протоколам (IPTV).
В ближайшей перспективе общедоступное эфирное цифровое телевидение в России появится не ранее 2014 года, когда в Сочи будут проходить зимние Олимпийские игры. Сегодня к этой Олимпиаде уже разработана и внедряется концепция цифрового телевещания в стандарте DVB-T «Спортивная» с ежедневным и круглосуточным режимом работы сразу нескольких спортивных каналов. Это федеральная программа, поэтому пакет спортивных каналов будет транслироваться на всю Россию.
Цифровое ТВ для мобильных телефонов
Различными проектами мобильного телевидения сегодня занимаются практически все российские операторы сотовой связи. Но, например, компания «МегаФон» назвала мобильным телевидением свою услугу по загрузке видео с помощью пакетной передачи данных, что является скорее «видео по требованию» (Video on Demand), нежели телевидением, хотя грузится при этом потоковое видео телетрансляции.
«Билайн» и МТС пошли правильным путем — они работают над проектами трансляции эфирного цифрового телевидения в стандарте DVB-H (Digital Video Broadcasting — Handheld) — это эфирный формат цифрового телевидения, который, в отличие от DVB-T, специально предназначен для мобильных устройств. ОАО «Система Масс Медиа», входящая в АФК «Система», приобретя фирму ЦТВ с ее рабочей частотой и опытом тестовых трансляций цифрового телевидения в формате DVB-T, обещала выйти в эфир в формате DVB-H еще в прошлом году, но никаких реальных шагов пока не предпринято — коммерческого вещания в стандарте DVB-H как не было, так и нет. Дальше всех в этой области продвинулся сегодня сотовый оператор «Билайн». Однако и у него пока коммерческое вещание не реализовано. На данный момент для обычных потребителей возможность подключения услуги MobileTV от «Билайн» заблокирована (хотя такая услуга есть, она работает и даже тарифицируется), а DVB-H продолжает эксплуатироваться в тестовом режиме (компания надеется запустить услугу в коммерческую эксплуатацию к весне 2009 года, хотя рынок уже предлагает телефоны Samsung P960 с поддержкой DVB-H). Сегодня в тестовом вещании MobileTV от «Билайн» 16 каналов, а запланированная стоимость данной услуги весьма приемлема (базовый пакет из трех каналов — 200 руб. в месяц, а все доступные каналы — 800 руб.). Основным препятствием для широкого распространения коммерческого телевещания в стандарте DVB-H является недостаток свободных радиочастот. Поэтому лицензии на вещание у «Билайна» пока нет и госрегулятор не выдал этому оператору разрешения даже на тестовые испытания. В результате компания вещает с 1 ноября 2008 года на территории Москвы на свой страх и риск. Учитывая, что лицензии на DVB-H сотовые компании ожидали получить и в начале в 2007 года, и в 2008 году, а теперь в начале 2009 года, то рассчитывать на какие-то реальные сроки не стоит. А оператор МТС, видимо, вообще махнул рукой на мобильное ТВ, заморозил развитие данного проекта и предпочитает развивать другие направления.
Московские владельцы мобильного телефона
Samsung P960 могут смотреть программы цифрового
телевидения у оператора «Билайн»
уже сегодня, но нелегально
В настоящее время передача телевизионного сигнала на мобильные телефоны возможна с помощью двух технологий: DVB-H (Digital Video Broadcasting — Handheld) и T-DMB (Terrestrial Digital Multimedia Broadcasting). Впрочем, технология T-DMB используется лишь на территории азиатских стран и вряд ли придет в Россию. В течение 2005-2006 годов на территории Австралии, Финляндии, Франции, Германии, Италии, Испании, Великобритании и США было запущено несколько проектов по развитию телевещания для пользователей мобильных телефонов. Во второй половине 2006 года коммерческие сервисы подобного рода начали функционировать в Италии, Германии и Великобритании, а также в Южной Корее и Японии.
Но с течением времени рынок, видимо, будет переходить на вещание DVB-H с поддержкой OMA, которое реализовано в аппаратах Nokia. Однако компания Nokia особого желания продвигать DVB-H в российских реалиях пока не проявляет, поэтому «Билайн» ориентируется на Samsung, но переговоры с Nokia о поддержке всех ее устройств и вещание в «правильном» формате для них уже ведутся. То есть в коммерческом запуске будут устройства от двух производителей. Учитывая, что количество каналов в разрешении 240x320 точек и частотой в 25 кадров в секунду довольно велико, то можно поддерживать особенности форматов обоих производителей.
В настоящее время исследования и работы по созданию оборудования и отдельных компонентов, позволяющих реализовать функцию приема телевизионного сигнала в мобильных телефонах, ведут компании DiBcom, LG, Nokia, Philips, Qualcomm, Sagem, Samsung и Texas Instruments.
Интернет-телевидение (IPTV)
Телетрансляции по IP-сетям (IPTV), вопреки прогнозам пессимистов, вышли в этом году из «котловины разочарований» и продемонстрировали «подъем жизнестойкости». Разработчики устраняют выявленные недостатки, а также оптимизируют технологические процессы с учетом требований пользователей. Широкое коммерческое внедрение этой технологии ведется даже в российском Интернете, и сегодня каждый уважающий себя широкополосный провайдер предоставляет такой сервис. По мере роста количества пользователей и примеров успешной реализации данного решения наступает его всеобщее признание, и, возможно, в силу отставания в нашей стране эфирного цифрового телевидения и дороговизны спутникового, телетрансляции по интернет-протоколам в последнее время становятся все более популярной услугой. Конечно развитие IPTV пока нельзя назвать ни безоблачным, ни заведомо предсказуемым. Процесс сдерживается целым рядом препятствий — начиная от недостатков самой услуги (вроде пауз при переключении каналов) и заканчивая стремлением компании Microsoft превратить персональный компьютер в своеобразную приставку для потокового видео и телевидения из Интернета (что стало особенно удобно и эффективно после появления Windows Vista). Благодаря широкому распространению видеоконтента, который можно найти бесплатно или купить через Интернет и закачать для просмотра на компьютер, потребность в IPTV у многих пользователей ощущается не так остро. Увеличивается в Сети и количество всевозможных бесплатных файлообменников, а кроме того, появляется много различных сервисов, аналогичных весьма популярному сегодня YouTube, которые позволяют получать видеосюжеты в онлайне (причем бесплатно).
В настоящее время аналитики продолжают придерживаться оптимистического мнения по поводу прогресса в области IP-телевидения, и если в прошлом году их оценки были в основном пессимистичны, то нынешний год показал конкурентоспособность данной услуги: операторы IP-телевидения стали предлагать более надежное и удобное обслуживание, чем традиционные виды телетрансляций, и значительно более качественное, чем нечто, получаемое бесплатно из глубин Глобальной сети. А поскольку сроки перехода российского телевидения к формату высокой четкости пока туманны, скорости передачи интернет-трафика постоянно растут, а современные ЖК-телевизоры и подешевевшие плазменные панели требуют более качественного контента, то перспективы IP-телевидения вырисовываются весьма радужные. Во всяком случае переход на стандарты высокой четкости (HDTV) уже не вызывает сомнений, как и то, что IPTV сможет оказать достойную конкуренцию и спутниковому телевидению (по крайней мере по стоимости), и тем более эфирному (когда оно наконец у нас появится, то будет отставать от IPTV по качеству).
Более того, операторы IPTV имеют в своем активе ряд еще очень серьезных козырей для конкуренции с традиционными технологиями вещания. Во-первых, это возможность высокой оперативности в освещении новостей и всевозможных «горячих» событий, более тесная интеграция с другими средствами массовой информации и Интернетом, а также возможность предоставления пользователям более интерактивных услуг, чем простое переключение каналов, и даже услуг с обратной связью.
Телеприсутствие (Telepresence)
Термин «телеприсутствие» (Telepresence) был введен для обозначения семейства перспективных технологий, направленных на удаленное управление роботами или другими мобильными механизмами, обратная связь с которыми осуществляется при помощи видеокамеры, показывающей местоположение данного устройства. Данная технология обычно включает также передачу телеметрии и двустороннюю связь с отдаленным объектом.
Применение разработок в области телеприсутствия в настоящее время ограничивается в основном научными исследованиями (в космосе или в каких-то враждебных либо недоступных человеку средах). Их коммерческое использование возможно прежде всего в медицине (например, для проведения микрохирургических операций или операций, во время которых врач удален от пациента), а также при удаленном обслуживании механизмов, если присутствие оператора сопряжено с опасностью для его жизни или здоровья (например, они могут повысить безопасность работы саперов, специалистов из антитеррористических подразделений, пожарных). До широкого применения технологий телеприсутствия пока еще очень далеко, однако в последнее время в связи с повышенной террористической угрозой во всем мире работа над подобными технологиями активизировалась. В результате за прошедший год они вышли из области повышенного интереса на пик завышенных ожиданий, что делает инвестиции в эту область особенно прибыльными.
На Западе разработкой подобных технологий серьезно занимаются такие компании, как ActivMedia Robotics и InTouch Health.
Потоковое видео и безленточные технологии
Тенденция перевода видеозаписи и вещания на безленточные технологии и резкое увеличение пропускной способности компьютерных сетей привели к тому, что не только маленькие региональные компании, но и крупные вещательные корпорации пытаются найти такие технические решения, которые дали бы им возможность автоматизировать телевизионное вещание без промежуточной перезаписи готового материала на магнитный носитель. Сегодня подобные решения позволяют добиться приемлемого результата на любом уровне качества.
Интересно отметить, что и в бытовом секторе видео перешло на безленточные технологии и постепенно перемещается в Интернет. Так что не исключено, что в скором времени мы будем хранить фильмы на флэшках, как когда-то на видеокассетах, или вообще держать фильмы на винчестерах либо в своих фильмохранилищах на веб-сайтах. Что касается удобства просмотра отснятого материала, то не секрет, что многие современные телевизоры имеют встроенные картридеры или USB-интерфейс, позволяющие считывать флэшки и показывать отснятое на них видео безо всякого компьютера. А поделиться отснятым материалом с друзьями, знакомыми или даже незнакомыми людьми всегда можно в онлайне. Публикуя свои работы в Интернете, можно заработать или повысить свое мастерство, причем гораздо быстрее и эффективнее, чем через традиционные средства массовой информации.
Сегодня пользователи имеют стабильную платформу для трансляции видео в Интернете и не должны постоянно переделывать и перекодировать исходные видеоматериалы для показа по Сети.
Различные потоковые технологии имеют целый ряд общих черт, благодаря которым создание и воспроизведение видео возможно на любых компьютерных платформах под управлением всех современных операционных систем. Все программы поддерживают и файловую и потоковую доставку, а также в той или иной форме обеспечивают автоматическое обновление версий, так что можно вводить новые формы и типы носителей, не загружая новые компоненты для их просмотра. Все решения можно воспроизводить с помощью программы-проигрывателя или прямо на веб-странице. Все они имеют API, с помощью которых программы сторонних фирм могут создавать и воспроизводить потоковые материалы из своих программ, с веб-сайтов или с предназначенных для такой передачи видеосерверов.
Технологии обработки данных с учетом местоположения (Location-Aware Technology)
Сегодня в области навигационных технологий наблюдается весьма странная картина: обычно новые идеи появляются в рамках тех или иных глобальных концепций, затем принимаются стандарты, а уж потом все это реализуется в конкретных приложениях. Здесь же наблюдается обратная ситуация: сначала появились и завоевали популярность всевозможные средства для определения местоположения объектов, потом были созданы коммерческие приложения для работы с этими средствами и лишь затем возникла идея стандартизовать все подходы и внедрить по общим методикам возможность определения координат во все устройства, которыми мы пользуемся в повседневной жизни. И вот сегодня положение наконец нормализуется: уже приняты или вот-вот будут приняты все соответствующие стандарты и производителям останется лишь плавно перейти от хаотичного развития к планомерному осуществлению общих концепций. На нашем графике это отражается следующим образом: если в прошлом году внедрение новых сервисов и стандартов (Location-Aware Technology) прогнозировалось через несколько лет, в то время как выпуск приложений (Location-aware applications) шел уже полным ходом, то сегодня, наоборот, окончательная победа концепций ожидается в ближайшие год-полтора, а появление новых приложений с их учетом отодвигается на 2-5 лет вперед.
По сути, сейчас предлагается интегрировать со всеми существующими средствами связи спутниковую GPS-навигацию и в результате реализовать в мобильных телефонах, ноутбуках, карманных ПК и других мобильных устройствах не только функцию определения того, где они находятся и какие объекты располагаются поблизости, но и «научить» устройства устанавливать связь друг с другом и соответствующими объединительными серверами посредством новых стандартных протоколов. Отметим, кстати, что в России не так интересно следить за перипетиями интеграции различных технологий, поскольку нет такого богатства вариантов, как в других странах, но важно не пропустить момент появления таких систем на нашем рынке, чтобы определиться с индивидуальными подходами к их применению и найти наиболее эффективные инструменты из нового арсенала услуг для решения своих задач.
Например, в США сегодня параллельно развиваются концепция Assisted GPS (A-GPS), продвигаемая компанией SnapTrack Qualcomm, с использованием технологий связи CDMA, и Enhanced GPS (E-GPS) от компании CSR Cambridge Positioning System с применением WCDMA-сети и технологии Enhanced Observed Time Difference (EOTD) для достижения высокой точности позиционирования. Причем технология E-GPS появилась позже A-GPS, но развивается более динамично. Термин A-GPS означает режим работы GPS-приемника, в котором часть необходимой для производства расчетов и определения местоположения информации (альманах, эфемериды, приблизительная оценка доплеровского сдвига) передается GPS-приемнику по дополнительному каналу, например через GPRS. Кроме того, провайдер, предоставляющий A-GPS-сервис, может принимать спутниковые данные с GPS-устройства клиента, обрабатывать их и возвращать готовые координаты. Могут быть и другие варианты применения данной технологии, но это уже зависит от провайдера (оператора), предоставляющего услугу A-GPS (если она интегрирована в мобильный телефон, то ее поддержка будет зависеть от сотового оператора). Впрочем, неважно, какие средства связи будут интегрироваться с GPS-навигацией в самом аппарате (аппаратов с поддержкой A-GPS, кстати, сейчас уже много, в том числе и небезызвестные Apple iPhone), главное — как они будут поддерживаться и использоваться оператором связи.
Однако следует учесть тот факт, что, по прогнозам экспертов, уже к концу 2010 года около 40% сотовых телефонов будут поддерживать GPS-навигацию, а поскольку это добавляет к традиционным телефонным сервисам новые услуги, то наши операторы связи должны реализовать продвинутые технологии обработки данных с учетом местоположения, поскольку эти услуги могут принести им дополнительный доход.
Сервисы, базирующиеся на местоположении (Location-Based Services)
Сегодня в области навигационных технологий «местоположение» (Location) становится новым универсальным типом данных в различных локальных приложениях и интернет-сервисах, что приводит к концептуальному изменению отношения к навигации и открывает массу новых возможностей.
Параллельно с разработкой новых протоколов связи и устройств, способных определять свое местоположение, разработчики занимаются развитием и совершенствованием способов практического использования этой информации (Location-Based или Location-Aware Services). Ведь в настоящее время все соответствующие системы (сегодня они условно называются системами первого поколения) являются лишь разновидностями поисковых систем, решающих задачи только одного вида: найти объект, человека или услугу. Даже навигационные системы в автомобилях фактически относятся к этому же классу. А сейчас уже необходимо не только создавать устройства и приложения, определяющие местоположение, но и разрабатывать различные сервисы с более высокой функциональностью, чем у привычных навигационных систем, и эти сервисы будут использовать информацию о местоположении объектов для решения более широких задач, а не просто для определения местоположения.
Сегодня большинство потребителей хочет иметь в подобных устройствах помимо базовых навигационных возможностей такие функции, как автоматическая реконфигурация устройств в зависимости от окружения (например, в домашних условиях печать с ноутбука производится на домашнем принтере, а в офисе ноутбук автоматически переключается на офисный принтер), повышение уровня безопасности (например, изменение прав доступа в зависимости от местонахождения устройства), независимое отслеживание перемещения устройства (необходимое, например, для того, чтобы экскурсанты могли найти друг друга в большом городе, родители — следить за детьми, а также для более эффективной доставки товара, контроля за перемещением грузов, содействия в поиске самого устройства, когда оно утеряно или украдено), ведение ежедневников, которые мгновенно рассчитывают и отображают занятое и свободное время, учитывая при этом время на дорогу до пункта назначения и рекомендуя самый быстрый маршрут с учетом текущей информации о дорожном движении.
Многие из этих функций уже находятся на стадии промышленного применения (например, на Ближнем Востоке у операторов связи широко распространены услуги, «подсказывающие» местонахождение ближайшего ресторана, кинотеатра или банкомата, а европейские операторы, учитывая интерес к модным сегодня коммуникаторам, предлагают планирование маршрута и загрузку навигационной и динамически обновляемой справочной информаций о пробках на дорогах).
Необходимо также отметить, что сценарии использования ноутбуков, мобильных телефонов и карманных компьютеров различаются. Поэтому хотя и возможно дублирование функций и совпадение областей применения новых технологий независимо от типа используемых устройств, но каждая категория мобильных устройств также будет иметь свое направление применения информации о местоположении — ведь ни один класс устройств не предназначен для выполнения всех задач и не решает их все в полном объеме.
Финская корпорация Nokia недавно представила мобильный компьютер Nokia N97, в который встроены модуль GPS, акселерометр и электронный компас. Причем N97 стал первым мобильным устройством, реализующим концепцию Social Location, которая позволяет получать в реальном времени информацию об объекте, на который направлен телефон.
Приложения, работающие с учетом местоположения (Location-ware applications)
Решения, учитывающие данные о местоположении, — это мобильные приложения, которые позволяют использовать географические координаты нахождения оборудования, сотрудника или какого-то объекта для того, чтобы предоставлять дополнительные сервисы (например, отслеживать перемещение курьеров, автоматизировать транспортировку и доставку грузов, выстраивать логистику на основе реальных данных о движении товаров, заботиться о безопасности сотрудников и грузов и т.д.).
Обычно такие системы строятся на базе спутниковых GPS-навигаторов или сотовых сетей мобильных операторов на основании привязки к базовым станциям. Вначале подобные системы были преимущественно узкоспециализированными, поэтому проектировались и настраивались строго на конкретную область применения, объект или заказчика. Однако рост числа организаций, использующих мобильные приложения с подобными технологиями, и дальнейшее успешное внедрение таких разработок привели к тому, что области и методы их применения в последнее время значительно расширились, эффективность повысилась, а кроме того, появился целый ряд удобных универсальных решений, все меньше нуждающихся в настройке под конкретную область применения или под заказчика. Однако переход к новым стандартам и концепциям использования оборудования с обратной связью и построением распределенных сетей потребует от разработчиков ПО более существенных преобразований, чем обычно, поэтому выход нового софта, по прогнозам экспертов, несколько задержится.
Кстати, проблемы интеграции службы оповещения о трафике (загруженности дорог) работают неэффективно не только у нас в России. И по всему миру все чаще подобные услуги (они обозначаются общим термином infomobility services — информационно-мобильные сервисы) вызывают справедливые нарекания. В Северной Америке и Европейском Союзе не оправдали надежд эксперименты по обеспечению бесперебойного хождения общественного транспорта — например оказалось, что другие составляющие транспортной системы, такие как оплата и получение билетов пассажирами, могут внести существенные коррективы в расчетные показатели систем, работающих с учетом местоположения.
Медиатехнологии
Домашние медиацентры
Падение интереса в области использования медиацентров на базе ПК продолжается. Да, функциональность современных компьютеров значительно расширилась, и при поддержке, например, оболочки MediaCenter, которая встроена в операционные системы Windows XP MCE2005 и Windows Vista ПК, он фактически превращается в универсальное мультимедийное устройство широкого профиля, однако до полной зрелости этой технологии еще далеко. Все пользователи, которые хотели использовать ПК как мультимедийный центр, уже успешно освоили новые технологии, поэтому значительного расширения данной группы не ожидается, а стремительного роста интереса к мультимедийным цифровым технологиям не наблюдается. Например, если пару лет назад медиацентр можно было приобрести исключительно как коробочное решение (причем относительно дорогое), то сегодня рядовой потребитель вполне может собрать подобное устройство самостоятельно. Для этого необходимо только подобрать комплектующие, которые соответствуют определенным спецификациям, и установить на полученную систему домашнюю версию Vista, оснащенную надстройкой Media Center. Однако, несмотря на столь простую реализацию, многие потребители до сих пор не имеют четкого представления, какие преимущества обеспечивает наличие медиацентра, и не стремятся использовать его функции на практике.
А между тем медиацентр — это последний этап эволюции персонального компьютера, который должен завершить тенденцию замещения компьютером всех остальных домашних развлекательных устройств. Однако на практике все не столь гладко, как казалось разработчикам, и это отталкивает многих пользователей от применения новых технологий. Превращению ПК в домашнего развлекательного монополиста мешают следующие причины: во-первых, для управления компьютером, в отличие от любой бытовой техники, нужны определенные умения и навыки, что обременительно для огромной категории обывателей (одной-двух кнопок, как на бытовом плеере, для компьютера недостаточно); во-вторых, компьютерные средства вывода пока все же уступают по качеству бытовой аудио- и видеоаппаратуре (видеофильм комфортнее смотреть на большом телевизионном экране, а не на маленьком, пусть и хорошем мониторе, а музыку приятнее слушать с помощью качественной акустики, а не компьютерных колонок); в-третьих, компьютер при работе шумит, мешает слушать и пугает пользователей своими габаритами и сложностью.
Все перечисленные проблемы разработчики попытались решать, выпустив специализированные медиацентры, которые ближе к бытовой аппаратуре, нежели к традиционному компьютеру. Они помещаются в маленькие кубические корпуса или в корпуса горизонтального исполнения, что позволяет вписать такой ПК в комплекс домашних видео- и аудиоустройств. Взаимодействие с подобным медиацентром осуществляется без помощи клавиатуры и мыши — полный контроль над развлекательными возможностями обеспечивает пульт дистанционного управления (настоящий пульт для медиацентра, сертифицированный компанией Microsoft, должен иметь все необходимые кнопки, включая те, которые позволяют быстро вызвать программу телевидения или переключиться на список записанных программ). Кроме того, такой компьютер должен быть оснащен широким набором коммуникационных портов, TV-тюнером, а также мультиформатным картридером.
Современный медиацентр представляет собой гибрид ряда бытовых развлекательных устройств и ПК. Он может стать адекватной заменой домашнего кинотеатра, игровой консоли, аудиосистемы, рабочего компьютера, продолжая оставаться компьютером, он выполняет функции единого развлекательного центра цифрового жилища, облегчающего доступ к хранимой информации в любое время из любого помещения при помощи самых разных устройств.
Для гарантированной реализации возможностей, предоставляемых Windows XP Media Center Edition или Windows Vista Media Center, требуется соответствие компонентов компьютера определенным спецификациям.
Однако, несмотря на возникшие в процессе развития медиатехнологий на ПК трудности «переходного периода», эксперты отмечают рост интереса пользователей к мультимедийным функциям ПК (особенно при переходе на телевидение и видео высокой четкости) и все большую популярность медиацентров. К сожалению, предлагаемые специализированные решения пока немногочисленны и довольно дороги, а значит, ориентированы все же на ограниченный круг пользователей, которые отважатся наконец полностью перейти на цифровые технологии при создании домашнего центра развлечений.
Наиболее представительными разработчиками в этой области являются такие компании, как Dell, HP, Intel, Microsoft, Sony, Toshiba и др.
Видеоконференции и видеочаты
Возможность не только услышать, но и увидеть друг друга в Интернете не представляется слишком уж новой и революционной: корпоративные видеоконференции проводятся давно и уже стали отлаженной промышленной технологией, но на потребительском уровне данная технология продвигалась в течение многих лет и долго не могла оправдать ожидания разработчиков. Однако в последнее время в связи с распространением широкополосного Интернета идея транслировать в диалоге обычных интернет-пользователей еще и видео по IP обретает второе дыхание. Видеокамеры сегодня дешевы (а многие ноутбуки оснащаются уже встроенными web-камерами), а такие популярные программы, как Skype, совместно с IP-телефонией (VoIP) позволяют транслировать по интернет-протоколам вместе с голосом и видеоизображение. И то, что Skype, как и другие подобные программы, наконец включила в свои чаты возможность видеотрансляции, должно побудить большое число пользователей опробовать эту возможность на практике и пересмотреть свое отношение к ней.
Кстати, помимо общего увеличения пропускной способности Интернета улучшились алгоритмы сжатия видео, и теперь поток транслируется по IP-протоколам не только быстрее, но и гораздо качественнее.
Однако за прошедший год ничего нового в этой области так и не произошло и по-прежнему мало кто стремится показывать свое лицо в интернет-чате.
Интерактивное вещание
Интерактивное телевидение развивается уже более десятка лет, но до сих пор не получило сколько-нибудь заметного распространения, хотя эксперты продолжают утверждать о скором выходе этой технологии на «плато продуктивности», а срок ее окончательного оформления тоже не слишком продолжителен.
Ранее мы некорректно объединяли «интерактивное телевидение» и «вещание по требованию» (Video on Demand, VoD), но теперь эти понятия разделились, и вещанием по требованию называется платформа (причем необязательно полностью интерактивная — достаточно какой бы то ни было формы заказа с целью получения для просмотра определенных фильмов), а вот интерактивное телевидение — это полноценная обратная связь на платформе VoD, которая может использоваться не только для выбора фильмов, но и для видеоигр, учебных курсов EPG (Electronic Program Guides), демонстрации диалоговой рекламы, коммерческой информации и других коммуникационных услуг.
С распространением Windows Vista применение контента по требованию будет расширяться и интерактивные услуги (в том числе и просмотр высококачественного видео на компьютере) станут обыденным явлением. Однако при этом могут возникнуть трения между пользователями и поставщиками таких услуг, поскольку богатые возможности Windows Vista предоставляются наряду с жесткими ограничительными мерами в области защиты авторских прав, которые для многих наших пользователей пока непривычны. Например, россияне неохотно воспринимают необходимость покупки временных лицензий, впрочем и во всем мире попытки строить бизнес на ограничении сроков лицензирования не увенчались успехом.
Видео по требованию
«Вещание по требованию» (Video on Demand, VoD) является сегодня уже окончательно оформившейся технологией. Даже в России оно предлагается некоторыми операторами интернет-доступа и кабельного телевидения.
На самом деле вещанием по требованию называют целый класс технологий, которые похожи друг на друга только конечным результатом для пользователя (заказал — получил для просмотра). А в технологическом плане это может быть как трансляция видео по Интернету, так и другие методы (например, кабельные каналы DOCSIS, различные DVB и спутниковые каналы вещания). Что касается Интернета, то для VoD по IP-протоколам никаких модификаций сети оператора интернет-доступа не требуется. Односторонняя передача информации «от одного к одному» (unicast) является для публичного Интернета обычным делом и требует дополнительного вмешательства со стороны оператора лишь при дефиците полосы пропускания до клиента, что отмечается сегодня все реже. Более сложной является односторонняя передача информации «от одного ко многим» (так называемый multicast), к которой плохо приспособлены современные IP-технологии и сети. Гораздо более эффективно VoD осуществляется с помощью тех или иных эфирных либо кабельных технологий (при этом, скажем, по кабелю в технологии DOCSIS может идти и Интернет, который в этом случае является, напротив, не основной, а дополнительной возможностью). При этом даже в случае необходимости обратной связи с пользователями (обеспечивающей интерактивность) подобный канал может быть построен любым способом, в том числе и по Интернету. При наличии спроса на подобные услуги традиционные вещатели могут быстро наладить смешанные технологии получения multicast-сигнала и построения обратного канала связи с получателем видеоконтента.
Производителями оборудования и технологий для VoD являются следующие компании: C-Cor, Cisco, Cisco/Scientific Atlanta, Concurrent Computer, Entone Technologies, Ericsson/Tandberg Television, Kasenna, Motorola и SeaChange International.
Мобильное видео по требованию
Вслед за выходом вещания по требованию на традиционные телевизионные экраны и компьютерные мониторы (Video on Demand) близится бум видео, загружаемого по заказу на мобильные телефоны, причем оно является более перспективным, так как в отношении него проще разрешаются проблемы оплаты и лицензионные коллизии. Уже в течение нескольких лет активно развивается индустрия производства контента (видеороликов, музыкальных клипов и фильмов), специально предназначенного для просмотра на маленьком экране сотового телефона. Выпуском подобной продукции занимаются сегодня продюсерские компании по всему миру. Есть студии такого профиля и в России. Особым успехом у пользователей мобильных телефонов пользуются короткие юмористические сюжеты, спортивные состязания, гэги и мультфильмы (как рисованные, так и 3D). В принципе, видео на телефоны грузят с тех пор, как появились GPRS (General Packet Radio Service) и CDMA2000, однако лишь в последнее время это увлечение переросло в массовое и соответственно стало коммерчески привлекательным бизнесом.
А с усовершенствованием мобильных технологий, появлением EDGE (Enhanced Data Rates for Global Evolution) и сетей третьего поколения, таких как WCDMA (Wideband Code Division Multiple Access), CDMA2000 EV-DO и 3G в GSM-сетях, процесс загрузки фильмов и видеороликов будет и вовсе необременительным. И тогда музыкальные клипы, спортивные состязания и, естественно, эротика пойдут по мобильным сетям сплошным потоком.
Например, российский сотовый оператор «МегаФон» называет свою услугу по загрузке потокового видео с помощью пакетной передачи данных «мобильным телевидением». И действительно, например, в Москве этот оператор предлагает 12 потоковых телеканалов за 240 руб. в месяц (8 руб. в день). Это, конечно, не очень дорого, но те, кто попробовал воспользоваться данной услугой по GPRS, увидели, что скорость загрузки контента невысока, а качество картинки оставляет желать лучшего.
Таким образом, серьезной эта услуга станет только в сетях 3G, хотя уже сегодня она пользуется определенным спросом.
Производители телефонных аппаратов уже подготовились к буму Mobile Video on Demand — емкость запоминающих устройств на мобильных телефонах кардинально увеличилась, а мощности процессоров возросли. Особую заинтересованность в мобильных зрителях своих аппаратов демонстрируют такие компании, как SonyEricsson, Samsung, Motorola и Nokia.
Технологии на замену кремния
Технология ДНК-вычислений (DNA Logic)
DNA Logic — это технология ДНК-вычислений, представляющая собой раздел области молекулярных вычислений, который находится на границе молекулярной биологии и компьютерных наук. Конечно, DNA Logic связана с полупроводниковыми технологиями лишь в том смысле, что она может рассматриваться в качестве одной из технологий, которые в будущем могут составить альтернативу традиционным кремниевым технологиям создания вычислительных процессоров.
Основная цель ДНК-вычислений — построение новой парадигмы вычислений, создание новых алгоритмов вычислений на основе знаний о строении и функциях молекулы ДНК и операциях, которые выполняются в живых клетках над молекулами ДНК при помощи различных ферментов.
На базе ДНК-вычислений ведется разработка биологического нанокомпьютера, который можно будет вживлять в клетку организма и производительность которого будет исчисляться миллиардами операций в секунду при энергопотреблении не более одной миллиардной доли ватта.
История ДНК-вычислений началась в 1994 году, кода Леонард М. Эдлман (Leonard M. Adleman) поставил первый эксперимент, продемонстрировавший их возможности и преимущества. В настоящее время ДНК-вычисления все еще находятся на стадии лабораторных исследований, так что создание биологического компьютера станет возможным не ранее чем через 30 лет. Именно поэтому DNA Logic размещены на графике Hype Cycle for Semiconductors в самом начале кривой.
Молекулярные транзисторы
Производство транзисторов в традиционном виде, то есть со стоком, истоком и затвором, возможно лишь до 2020 года. К тому времени размеры всех элементов транзистора достигнут атомарных и уменьшать их дальше будет просто невозможно. Таким образом, 2020 год — это фактически тот рубеж, когда закон Мура перестанет действовать, а кремний потеряет свою актуальность как основной материал микроэлектроники. Значит, уже сейчас следует искать принципиально новые материалы и технологии для создания транзисторов будущего.
В числе перспективных направлений рассматриваются такие, как молекулярные транзисторы, транзисторы на основе спиновых волн электронов, ферроэлектрические транзисторы, транзисторы на основе интерференции волн и пр. Конечно, пока невозможно представить, как именно будут выглядеть транзисторы лет через пятнадцать, но ясно одно: это будут устройства с молекулярными размерами, абсолютно не похожие на существующие ныне CMOS-транзисторы.
В самом общем виде под молекулярным транзистором понимают транзистор размером с одну молекулу. Идея молекулярных транзисторов не нова. Еще в 1959 году Ричард Фейнман высказал идею, согласно которой молекулы, обладающие определенными свойствами, смогут работать как элементарные переключатели и заменят собой транзисторы.
Молекулярный транзистор — это молекула, которая может существовать в двух устойчивых состояниях с разными свойствами. Переводить молекулу из одного состояния в другое (переключать) можно с помощью света, тепла, магнитного поля и т.д., формируя двухбитную систему, воспроизводящую на молекулярном уровне функцию классического транзистора.
По размеру молекулярный транзистор будет на два порядка меньше самых миниатюрных кремниевых транзисторов, а время его переключения составляет порядка одной фемтосекунды (10-15 с). Таким образом эффективность молекулярного транзистора может оказаться в 100 млрд раз выше по сравнению с современным кремниевым. Создание молекулярных транзисторов в настоящее время находится на стадии лабораторных исследований.
Еще в 1974 году исследователи из компании IBM представили вещество, молекула которого обладала теми же свойствами, что и обычный диод. Пропуская ток в одном направлении, введением дополнительного, управляющего фрагмента она могла быть усовершенствована до своеобразного молекулярного транзистора. При соединении двух таких молекул получается абсолютный аналог полупроводникового триггера — основного элемента современных процессоров. Переключать же данное устройство, имитируя состояния бита — 0 и 1, возможно с помощью света или электрического поля.
Впрочем, вскоре ученые поняли, что копировать традиционный транзистор совсем необязательно. Ведь теоретически роль бита может играть любая двухуровневая система, которую относительно легко можно перевести из одного состояния в другое. Молекул же, меняющих свою структуру при определенном физико-химическом воздействии, известно немало. Например, спиробензопирены переходят в одно состояние под действием ультрафиолета, а обратно — с помощью обычного света. На основе подобных структур возможно построение не только логических элементов, но и устройств памяти. Соединять же молекулярные триггеры можно, используя либо углеродные нанотрубки, либо разработанные недавно токопроводящие полимеры (за их открытие в 2000 году группе ученых была вручена Нобелевская премия).
В 2001 году исследовательская группа из «Лабораторий Белла», изучавшая свойства так называемых тионов — органических веществ со свойствами полупроводников, получила органическую молекулярную структуру, преобразующую логический ноль в единицу и обратно. Размер канала этого органического транзистора равен длине одной молекулы, то есть 1-2 нм. Молекулярный транзистор из тиона в 10 раз меньше всех полупроводниковых приборов, созданных по самым совершенным технологиям. Группа ученых приступила к созданию модулей ИС из молекулярных транзисторов на основе тионов.
Успешно работающий прототип преобразователя напряжения позволяет предположить, что с помощью молекулярных транзисторов удастся создать микропроцессоры и чипы памяти с плотностью элементов в тысячу раз большей, чем позволяют современные технологии.
И хотя молекулярные транзисторы сейчас кажутся нам фантастикой, первые молекулярные схемы уже существуют и в текущем десятилетии должно начаться их серийное производство. Первый же полноценный молекулярный компьютер появится, по прогнозам экспертов, не ранее 2020 года.
Транзисторы на углеродных нанотрубках
Технология углеродных нанотрубок (Carbon Nanotube) — одна из наиболее перспективных и быстроразвивающихся технологий современной микроэлектроники.
Углеродные нанотрубки, которые также называют фуллеренами, или углеродными каркасными структурами, — это большие молекулы, состоящие только из атомов углерода. Принято даже считать, что эти молекулы представляют собой новую форму углерода, наряду с известными формами — графитом и алмазом. Если подходить к понятию фуллеренов формально, то можно сказать, что это аллотропные молекулярные формы углерода, в которых атомы расположены в вершинах правильных шести- и пятиугольников.
В конце 80-х — начале 90-х годов фуллерены научились получать в макроскопических количествах, а в 1991 году неожиданно были открыты новые фуллерены, напоминающие длинные цилиндрические каркасные формы, — они называются нанотрубки. В поперечном сечении их размер обычно составляет несколько нанометров, в то время как по длине они могут достигать гигантских размеров — вплоть до миллиметра.
Один из интересных способов применения нанотрубок — это создание полевых транзисторов, в которых роль канала проводимости выполняет именно нанотрубка. В традиционном полевом транзисторе канал переноса носителей заряда (дырок и электронов), который представляет собой область между стоком и истоком, обогащенную основными носителями заряда, образуется в подзатворной области под действием электрического поля, возникающего при приложении напряжения к затвору. Меняя напряжение на затворе, можно управлять каналом переноса (концентрацией носителей заряда в подзатворной области). При этом, как правило, рассматриваются два состояния полевого транзистора: открытое и запертое. В открытом состоянии существует канал переноса заряда, и под воздействием напряжения между стоком и истоком возникает электрический ток. В запертом состоянии канала переноса нет и тока между стоком и истоком не возникает.
Принцип действия полевого транзистора на основе нанотрубки подобен принципу действия традиционного транзистора, но каналом переноса заряда в данном случае является сама нанотрубка.
В простейшем случае транзистор с нанотрубкой выглядит следующим образом. На подложку из кремния, которая сама является управляющим электродом (затвором), наносится тончайшая пленка защитного слоя — оксида кремния. На ней расположены сток и исток в виде тонких проводящих рельсов, между которыми размещена сама нанотрубка с полупроводниковой проводимостью. В обычном состоянии концентрация свободных носителей зарядов (дырок и электронов) в нанотрубке мала, то есть она является диэлектриком. Однако при помещении в электрическое поле трубка становится проводником. Электрическое поле, управляющее проводимостью нанокарбоновой трубки, создается затвором, которым, как уже отмечалось, является кремниевая подложка.
Первой в 2001 году транзистор на нанотрубках изготовила компания IBM. С тех пор было разработано множество альтернативных схем транзисторов с нанотрубками. К примеру, в компании Samsung была создана схема транзистора с вертикальным расположением нанотрубок.
Конечно, пройдет еще немало времени, прежде чем транзисторы на основе нанотрубок будут внедрены в массовое производство, однако уже сейчас очевидно, что они имеют массу преимуществ в сравнении с традиционными и будут востребованы в ближайшем будущем.
Quantum Computing
Вычислительная мощность процессоров постоянно возрастает. Но, несмотря на постоянное увеличение производительности процессоров, многие задачи оказываются не по силам даже самым мощным суперкомпьютерам. К примеру, с задачей о разложении целого числа, имеющего миллион знаков, на простые множители, не справится ни один современный компьютер (для этого потребовалось бы время, превышающее возраст Вселенной).
Существует, однако, способ ускорить процесс вычисления для некоторых специальных классов задач. Речь идет о создании квантовых компьютеров с совершенно иной логикой вычислений.
Кроме разложения числа на простые множители, квантовые компьютеры позволяют эффективно решать такие задачи, как неупорядоченный поиск в базе данных или симулирование квантовых систем, состоящих из большого количества частиц, непосильные для обычных компьютеров. Например, для расчета одного атома азота средствами традиционного компьютера потребуется время, сопоставимое с возрастом Вселенной.
Основным элементом квантового компьютера являются квантовые биты, или кубиты (от quantum bit, qubit). Кубит напоминает обычный бит, который может принимать всего два значения: 0 или 1, но, в отличие от обычного бита, кубит подчиняется законам квантовой механики и для него применим принцип суперпозиции состояний.
В качестве кубита может использоваться любая квантовая частица (то есть частица, подчиняющаяся квантовым законам), обладающая двумя базовыми состояниями: 0 и 1 (аналогично обычному биту). К примеру, кубитом может быть спин электрона, который направлен вверх (состояние 0) или вниз (состояние 1). Другие примеры кубита — основное и возбужденное состояния атома, направление тока в сверхпроводящих кольцах, спины атомного ядра и др.
Как мы уже отмечали, для кубита применим квантовый принцип суперпозиции состояний. Данный принцип довольно трудно понять человеку, не посвященному в законы квантовой механики, но на простейшем уровне его можно описать так. Кроме двух базовых состояний (0 или 1), кубит может находиться и в промежуточных состояниях, то есть одновременно (в один и тот же момент) с некоторой долей вероятности быть в состоянии 1 и состоянии 0. Это свойство квантовых частиц обеспечивает параллелизм квантовых вычислений, что делает их более эффективными для решения ряда задач, чем используемые сейчас технологии. Например, если квантовая память состоит из двух кубитов, то можно синхронно работать со всеми ее состояниями: 00, 01, 10, 11.
Логические операции над кубитами реализуются при помощи специальных активных элементов, называемых квантовыми вентилями. Скорее всего, логика квантового компьютера будет идентична классической, однако за счет суперпозиции квантового бита теоретически вполне обоснованно и введение новых, не имеющих классических аналогов операций.
Первые теоретические работы по квантовой электронике появились всего 20 лет назад, и с тех пор квантовые вычисления стали быстро эволюционировать. К примеру, разработчикам из группы профессора Марка Эриксона из Университета шт.Висконсин в Мэдисоне удалось смоделировать архитектуру квантового компьютера на основе кремниевой технологии. Они смогли создать массив квантовых точек в кремниево-германиевом полупроводнике, в каждой из которых находился один-единственный электрон. Для кодирования кубита использовался спин электрона. Управление кубитами осуществлялось при помощи электростатических затворов, при открытии которых появляется возможность как горизонтального, так и вертикального туннелирования электрона. На построенном прототипе будущего квантового компьютера ученым удалось решить несколько элементарных задач.
Российский ученый М.В.Фейгельман из Института теоретической физики им. Л.Д.Ландау предложил использовать в качестве кубита квантового регистра крошечные сверхпроводящие кольца. В этом случае состояниям 0 и 1 будет соответствовать направление тока в кольце: по или против часовой стрелки.
Переключаться же кубиты могут магнитным полем. Учитывая успехи последних лет в области высокотемпературной сверхпроводимости, описанная схема представляется весьма перспективной.
Стоит обратить внимание и на идею И.Чанга, предложившего использовать спины сложных органических молекул для построения квантовой вычислительной машины. Работы в этой области уже дали ощутимые практические результаты. Так, в конце прошлого года группа ученых из компании IBM и Стэнфордского университета продемонстрировала реализацию алгоритма Шора факторизации чисел при помощи созданного ими семикубитового квантового компьютера. Хотя решенная ими задача — разложение числа 15 на простые множители (3 и 5) — кажется несерьезной, данный успех является важной вехой в развитии квантовой электроники.
Техническая реализация описываемого устройства весьма оригинальна. Квантовый компьютер представляет собой пробирку с жидким органическим веществом, молекулы которого имеют семь ядерных спинов. Программирование производится при помощи электромагнитных импульсов разной частоты, а для получения результатов работы используется ЯМР-сканер (ЯМР — ядерно-магнитный резонанс). Помимо решения простейшей задачи о факторизации, экспериментально на ЯМР-квантовых компьютерах были осуществлены алгоритм Гровера, квантовое Фурье-преобразование, квантовая коррекция ошибок, квантовая телепортация, квантовое моделирование и другие операции. Однако ввиду ряда неразрешимых проблем квантовые компьютеры на молекулах органической жидкости никогда не смогут иметь число кубитов больше 10. Поэтому их следует рассматривать лишь как прототипы будущих квантовых вычислительных систем, полезные для отработки принципов квантовых вычислений и проверки квантовых алгоритмов.
Перспективные технологии памяти
Полимерная память (PFRAM)
Полимерная память (PFRAM) относится к категории флэш-памяти и может использоваться для энергонезависимого хранения данных. По оценкам аналитиков, удельный объем такой памяти, отнесенный к одному квадратному сантиметру площади, почти в 20 раз больше, чем у обычной флэш-памяти. Разработку памяти такого типа ведут многие фирмы, в частности компания Intel в содружестве с Thin Film Electronics — дочерней компанией шведской фирмы Opticom, впервые предложившей полимерную память еще в 1994 году. Специалистами Thin Film Electronics получена специфическая группа полимеров с двумя стабильными состояниями поляризации. Их открытие позволяет программировать память путем изменения поляризации пленки сегнетоэлектрического полимера, заключенной между взаимно перпендикулярными металлическими шинами, и обеспечивает энергонезависимость памяти.
Пленка полимера может содержать и тонкопленочные транзисторы схем управления. Благодаря возможности формировать многослойные структуры полимерной памяти обеспечивается ранее недостижимый объем памяти. Если для функционирования обычной кремниевой схемы памяти объемом 1 Гбит требуется 1,5-6,5 млрд транзисторов, то для памяти PFRAM-типа такого же объема их нужно только 500 тыс. При этом объем полимерной памяти размером с кредитную карту эквивалентен объему 400 тыс. CD-дисков или объему устройства, хранящего достаточно данных для воспроизведения музыки MPG-формата в течение 126 лет. При этом увеличение емкости памяти за счет нанесения дополнительных полимерных пленок не влечет за собой существенного роста потребляемой мощности.
Полагают, что полимерная память найдет применение в первую очередь в картах памяти цифровых фотокамер и другом бытовом оборудовании. Массовое производство PFRAM-памяти начнется не ранее 2015 года.
PRAM
PRAM — это новый тип памяти, позиционируемый как универсальная замена и динамической, и флэш-памяти. В качестве признака состояния ячейки предлагается использовать изменение фазового состояния халькогенида (chalcogenide) — вещества, способного под воздействием нагрева и электрических полей переходить из непроводящего аморфного состояния в проводящее кристаллическое. Такая память известна также как «память с изменением фазового состояния» (phase change memory, PCM), PRAM и Ovonic Unified Memory. Она является энергонезависимой, то есть не требует электропитания для сохранения своего состояния.
Наряду с материалами, описывающими возможные перспективы производства мультигигабитных чипов PCM по 45- или 32-нм процессу, компания ST представила прототип 128-Мбит чипа PCM, изготовленный по 90-нм технологии. К преимуществам PRAM-памяти относятся малая площадь ячейки, хорошие электрические характеристики и высокая надежность.
До сих пор халькогениды применялись в основном в перезаписываемых оптических носителях, где использовалась их способность к изменению не только электрических, но и оптических свойств, а коммерческая реализация PCM была затруднена из-за проблем с получением достаточно качественного материала. Возрастание интереса к этому типу памяти связано с тем, что PCM лучше подходит для применения вместе с более «тонкими» литографическими техпроцессами, чем динамическая или флэш-память.
MRAM
MRAM (Magnetic Random Access Memory) — это один из перспективных типов энергонезависимой памяти, которая может прийти на смену как динамической оперативной памяти DRAM, так и статической памяти SRAM и флэш-памяти.
Вместо конденсаторов, применяемых в микросхемах DRAM, технология MRAM предусматривает использование тонкой магнитной пленки. В привычных нам микросхемах памяти информация сохраняется благодаря формированию соответствующим образом распределенного заряда конденсаторов, а в устройствах MRAM это будет осуществляться за счет намагничивания пленки.
Одно из преимуществ новой технологии заключается в том, что, в отличие от DRAM, память MRAM является энергонезависимой. В микросхемах DRAM информация хранится в конденсаторах, и при отключении питания происходит ее потеря. Это означает, что для длительного хранения информацию необходимо переписывать на жесткий диск, имеющий магнитную поверхность. Благодаря энергонезависимости память MRAM позволяет преодолеть это ограничение.
При применении эффекта магнитной поляризации отпадает необходимость в периодическом обновлении памяти MRAM. Таким образом, не требуется и загрузка компьютера в начале каждого сеанса работы. Пользователи получат в свое распоряжение устройства, находящиеся в постоянной готовности.
Еще одно преимущество памяти MRAM состоит в том, что она подразумевает бесконечное число циклов записи (для флэш-памяти число циклов записи ограничено), а также очень высокие скорости записи и доступа. Запись бита информации в чип MRAM происходит примерно в миллион раз быстрее, чем во флэш-память. Время чтения бита из MRAM примерно в три раза меньше, чем у NOR-флэш, и почти в тысячу раз меньше, чем у NAND-флэш-памяти.
Технология MRAM выглядит многообещающей. Конечно, пройдет еще немало времени, прежде чем память MRAM появится в коммерческих системах. Но если данная технология будет развиваться в правильном направлении, то со временем она вытеснит с рынка микросхемы DRAM.
Собственно, первоначально прогнозировалось, что первые образцы MRAM-памяти появятся на рынке уже в 2004 году, а в 2005-м спрос на память составит 40 млрд долл. Именно такие прогнозы делались в 2001 году. Действительно, в июне 2004 года компания Infineon продемонстрировала чип MRAM емкостью 16 Мбайт, однако производство MRAM-памяти до сих пор не вышло на уровень массового, серийного, хотя различные компании периодически делают анонсы о разработке новых типов MRAM-памяти. Как повлияет кризис на дальнейшее развитие MRAM-памяти, предсказать довольно сложно. Но то, что в скором будущем эта память не станет массовой, очевидно.
Технологии создания элементной базы
ЕUV-литография
Литография — это один из важнейших этапов в производстве микросхем; технология, применяемая для нанесения рисунка будущей микросхемы на слой фоторезиста посредством специальных литографических масок.
Важнейшей характеристикой литографического процесса является его разрешающая способность, обусловливающая минимальную толщину линии, которую можно нанести на фоторезисте.
В современном производстве процессоров используется проекционная литография, в которой применяются линзы или зеркала, позволяющие проецировать рисунок маски-шаблона с уменьшением масштаба.
Разрешающая способность проекционной литографии, то есть минимальная толщина линии, которую можно получить на фоторезисте, определяется критерием Релея и зависит от длины волны источника излучения, числовой апертуры объектива, типа фоторезиста и технологического процесса.
Более высокое разрешение можно получить за счет увеличения числовой апертуры проекционной установки или перехода к источникам излучения с более короткой длиной волны.
Однако увеличение числовой апертуры проекционной установки имеет негативное последствие. Дело в том, что кроме разрешающей способности литографический процесс характеризуется еще и глубиной резкости. Если разрешающая способность определяет характерный поперечный размер фокусировки, то глубина резкости — характерное расстояние фокусировки в продольном направлении.
Увеличение числовой апертуры объектива негативно сказывается на уменьшении глубины резкости, а чем меньше глубина резкости, тем большую точность необходимо обеспечить при размещении пластины в проекционной установке, чтобы выдержать ее параллельность фокальной плоскости (плоскости фокуса) с точностью до долей микрометра. К примеру, при применении 65-нм техпроцесса производства глубина резкости составляет порядка 0,2 мкм. Поэтому единственный способ увеличить разрешающую способность литографического процесса при заданной глубине резкости заключается в том, чтобы перейти к источникам излучения с более короткой длиной волны.
Если говорить об источниках излучения, то в современной литографии используется коротковолновое ультрафиолетовое излучение с длиной волны 248 нм (технологический процесс 350, 250 и 180 нм) и 193 нм (технологический процесс 180, 130, 90, 65 и 45 нм).
Литография с применением источников излучения с длиной волны 248 и 193 нм получила название DUV (Deep UltraViolet — глубокое ультрафиолетовое излучение).
Для того чтобы повысить разрешающую способность литографического процесса при использовании коротковолнового ультрафиолетового излучения с длиной волны 193 нм, применяют различные технологии улучшения разрешающей способности, например маски-шаблоны с фазовым сдвигом. В таких масках на одну из двух соседних прозрачных линий накладывается фазовый фильтр, сдвигающий фазу проходящей волны на 180°. В результате интерференции волн в противофазе происходит их взаимное ослабление в области между двумя экспонируемыми линиями, что делает их лучше различимыми и повышает разрешающую способность.
Шаблоны с фазовым сдвигом используются в 45-нм техпроцессе. Однако применять лишь одни маски-шаблоны с фазовым сдвигом уже недостаточно, чтобы достичь разрешающей способности, характерной для топологической нормы 32 нм, при использовании коротковолнового ультрафиолетового излучение с длиной волны 193 нм. Именно поэтому считалось, что возможности оптической DUV-литографии ограничены техпроцессом 45 нм и переход на техпроцесс 32 нм потребует новых источников излучения. Так, первоначально предполагалось, что для литографии с проектной топологией 32 нм будет применяться так называемая ЕUV-литография (Extreme UltraViolet — сверхжесткое ультрафиолетовое излучение), которая основана на использовании ультрафиолетового излучения с длиной волны 13,5 нм.
Разработками в области ЕUV-литографии в компании Intel активно занимаются с середины 1990-х годов. В частности, именно компания Intel в 1997 году сыграла решающую роль в формировании консорциума, разработавшего первый инженерный испытательный стенд EUV-литографии, и именно она установила первый в мире коммерческий аппарат EUV Micro Exposure Tool (MET) и пилотную линию по нанесению масок EUV, включающую инструменты восстановления масок и обнаружения дефектов в заготовках масок.
Переход с DUV- на EUV-литографию обеспечивает более чем 10-кратное уменьшение длины волны и переход в диапазон, где свойственные транзисторам размеры сопоставимы с размерами всего нескольких десятков атомов.
Однако с применением ЕUV-излучения связаны и некоторые проблемы. Поскольку свет с длиной волны 13,5 нм поглощается всеми материалами, в том числе стеклом, из которого изготавливаются традиционные линзы, то в EUV-литографии используется полностью отражающая, а не пропускающая оптика. Маски, которые традиционно являются пропускающими, также должны быть отражающими. Кроме того, вся система должна находиться в вакууме, поскольку световые волны диапазона EUV поглощаются воздухом.
Несмотря на успехи компании Intel в разработке ЕUV-литографии, нужно отметить, что переход на новый литографический процесс производства крайне дорог и требует практически полного переоборудования фабрик по производству процессоров. А потому продление жизненного цикла традиционной DUV-литографии — крайне важная технологическая задача. Именно поэтому параллельно с развитием ЕUV-литографии делаются шаги по улучшению традиционной DUV-литографии.
В результате предпринятых действий по улучшению традиционной DUV-литографии выяснилось, что оптическую литографию с источником излучения 193 нм можно использовать и для 45-нм, и даже для 32-нм техпроцесса.
Что же касается перехода на EUV-литографию, то он откладывается, причем если ранее не было никаких сомнений в том, что EUV-литография будет применяться при 22-нм техпроцессе, то теперь и этот факт неочевиден.
Иммерсионная литография (Immersion Lithography)
Иммерсионная литография — это технология, которая используется для улучшения проекционной литографии. Идея иммерсионной литографии заключается в том, что между маской-шаблоном и кремниевой подложкой находится дополнительная среда — жидкость. Дело в том, что скорость распространения света в веществе всегда меньше скорости распространения света в вакууме и зависит от коэффициента преломления этого вещества. Фактически это равносильно тому, что свет, проходящий через материал с высоким коэффициентом преломления, имеет меньшую длину волны (эффективная длина волны уменьшается в n раз, где n — коэффициент преломления среды), поэтому может быть сфокусирован более точно.
Многослойная печатная плата на гибкой
подложке, изготовленная методом промышленной
струйной печати
Методика иммерсионной литографии подразумевает погружение кремниевых пластин в очищенную воду. Применение воды в этом процессе объясняется тем, что она имеет более высокий коэффициент преломления, чем воздух, что, в свою очередь, позволяет добиться увеличения разрешающей способности литографии без изменения длины волны источника излучения.
Пионером в области иммерсионной литографии является компания IBM. В ее экспериментах с использованием установки, получившей название NEMO, оптика и жидкость имеют коэффициент преломления порядка 1,6, а коэффициент преломления фоторезиста составляет 1,7.
В установке NEMO лазерный луч разделяется на два, а затем эти лучи перекрещиваются, создавая интерференционную картину, или интерферограмму, позволяющую при помощи стандартного процесса иммерсионной литографии добиться более близкого расположения соседних линий на пластине. Опытная установка, по мнению разработчиков, идеально подходит для исследований, испытаний и подбора различных жидкостей с высоким коэффициентом преломления, а также фоторезистов для использования в литографических аппаратах будущего.
С помощью метода погружения специалисты IBM смогли получить четкие выпуклые линии шириной всего 29,9 нм, разделенные одинаковыми пробелами. Полученные проводники примерно втрое меньше применяемых сегодня в рамках серийного 45-нанометрового технологического процесса и меньше, чем позволяет получить 32-нанометровая технология, которая до последнего времени считалась теоретическим пределом для оптической литографии.
Конечно, в иммерсионной литографии есть свои технологические проблемы. Главная из них — это получение жидкости с высоким коэффициентом преломления. При этом жидкость не должна вступать в химическую реакцию с кремниевой подложкой и слоем фоторезиста. Кроме того, при применении иммерсионной литографии приходится учитывать такие негативные явления, как температурные флуктуации жидкости, что приводит к ее неоднородности и, как следствие, к рассеиванию проходящего излучения. Существуют и другие специфические проблемы.
Такие компании, как Chartered Semiconductor, IBM, Samsung, Texas Instruments и TSMC, уже объявили о своих планах по переходу на иммерсионную технологию. Данная технология будет использоваться и при производстве процессоров на базе 32-нанометрового техпроцесса.
Промышленная струйная печать
Технологию пьезоэлектрической струйной печати можно использовать не только для получения изображений, но и для промышленного производства некоторых компонентов электронных устройств. В частности, метод струйной печати может стать альтернативой литографического процесса, применяемого для выполнения ряда ключевых технологических операций при производстве печатных плат и ряда других компонентов (таких, например, как дисплейные панели на базе ЖК и OLED). Для промышленных установок, оснащенных пьезоэлектрическими печатающими головками, синтезированы жидкие составы, позволяющие формировать на подложке проводники, изолирующее покрытие и пр.
Замена литографического процесса на струйную печать позволяет значительно сократить материалоемкость и энергоемкость производства, а также заметно уменьшить количество отходов (в том числе токсичных и опасных для окружающей среды). Кроме того, применение струйной печати дает возможность снизить себестоимость и сократить сроки изготовления продукции, особенно при производстве мелких партий и единичных экземпляров изделий.
В 2002 году в Японии были запущены в коммерческую эксплуатацию первые промышленные струйные установки, предназначенные для изготовления многослойных печатных плат на гибкой подложке. В настоящее время эта технология используется также для нанесения светоизлучающих материалов и формирования полупроводниковых элементов на подложках дисплейных панелей. Так, с 2005 года при производстве серийных ЖК-панелей EPSON для мультимедиапроекторов выравнивающий слой наносится на стеклянную подложку методом промышленной струйной печати.
В настоящее время в сфере производства печатных плат и полупроводниковых компонентов методом промышленной струйной печати работает целый ряд компаний — Applied Nanotech, Career Technology, EPSON, Jiatong Technology, M-FLEX, Optomec, Young Poong и др.
Компактные топливные элементы
Топливные элементы — это специализированные химические реакторы, предназначенные для прямого преобразования энергии, высвобождающейся в ходе реакции окисления топлива, в электрическую. Данные устройства имеют по крайней мере два принципиальных отличия от гальванических батарей, также преобразующих энергию протекающих в них химический реакций в электричество. Во-первых, в топливных элементах используются не расходуемые в процессе работы электроды, а во-вторых, необходимые для проведения реакции вещества подаются извне, а не закладываются внутрь элемента изначально (как в обычных батарейках).
В отличие от аккумуляторов, заряд которых возобновляется при подключении к внешнему источнику тока, восстановление работоспособности топливных элементов осуществляется путем пополнения запаса компонентов, применяемых для поддержания электрохимической реакции, — топлива и (в некоторых конструкциях) окислителя. Большинство конструкций малогабаритных топливных элементов, создаваемых для использования в портативных ПК и электронных приборах, рассчитаны на применение жидкого углеводородного топлива (в частности, метилового спирта).
Принцип работы топливного элемента
В настоящее время работы по созданию компактных топливных элементов ведут компании Hitachi, LG Electronics, NEC, Smart Fuel Cell, Sony, Toshiba и др.
Представители некоторых из перечисленных компаний сообщали о планах по запуску серийного производства решений на базе компактных топливных элементов еще в 2007 году, однако в силу ряда причин этого не произошло. Тем не менее интерес к данной теме постоянно подогревают все новые и новые прототипы, регулярно демонстрируемые на международных выставках.
В феврале минувшего года на выставке Hydrogen and Fuel Cell Expo компания MTI MicroFuel Cells (которой принадлежит торговая марка Mobion) продемонстрировала прототип источника питания на топливных элементах, предназначенного для цифровых зеркальных камер. Это устройство выполнено в виде подсоединяемого к камере батарейного отсека (battery grip), что позволяет использовать его с уже выпущенными моделями цифровых зеркальных фотоаппаратов. Данный источник питания работает по технологии прямого преобразования метанола (Direct Methanol Fuel Cell, DMFC).
Кстати, в августе 2008 года появились сведения о том, что компания Canon запатентовала конструкцию цифровой зеркальной фотокамеры, в которой в качестве источника питания используется топливный элемент, работающий на газообразном водороде. Правда, информации о том, что Canon планирует в ближайшее время приступить к серийному выпуску фотоаппаратов подобного типа, пока нет. Не исключено, что патентная заявка была подана с прицелом на долгосрочную перспективу.
На стенде MTI MicroFuel Cells были и другие прототипы на базе топливных элементов, в частности универсальное зарядное устройство для возобновления запаса энергии в аккумуляторах электронных гаджетов. Жидкое топливо (метанол) будет поставляться в специальных картриджах, а для подключения заряжаемых устройств предусмотрен стандартный разъем USB. Как утверждают разработчики, запаса топлива, содержащегося в одном картридже, хватит для того, чтобы выработать 25 Вт·ч электроэнергии. Таким образом, пользователь сможет на одной заправке несколько раз полностью зарядить аккумулятор современного мобильного телефона.
По предварительным данным, MTI MicroFuel Cells планирует начать серийное производство внешних зарядных устройств на базе топливных элементов Mobion и сменных картриджей для них в конце 2009 года. Информации о предполагаемой цене подобных устройств пока нет.
Прототип источника питания на базе компактного
DMFC-элемента и картридж с метанолом
На международной конференции Small Fuel Cells 2008 компания Sony продемонстрировала прототип гибридного топливного элемента, умещающегося на ладони. В этом устройстве объединены топливный элемент DMFC, литий-ионный аккумулятор и управляющая электроника. Метанол поступает в реактор из сменного картриджа емкостью 10 мл. По словам разработчиков, этот элемент способен питать нагрузку мощностью до 3 Вт.
В октябре 2008 года представители Toshiba заявили, что компания готова начать серийное производство топливных элементов для питания портативных электронных устройств уже в 2009 году.
Итак, в минувшем году сразу несколько крупных компаний объявили о готовности начать серийное производство источников питания на базе топливных элементов для портативных электронных устройств. Впрочем, эти заявления стоит воспринимать с изрядной долей скептицизма, поскольку подобные обещания уже не раз были озвучены в 2006 и 2007 годах, а воз, как говорится, и ныне там.
В настоящее время компактные топливные элементы находятся на пороге коммерциализации. С большой степенью вероятности можно предположить, что первыми серийными устройствами, предназначенными для массового пользователя, станут внешние источники питания и зарядные устройства на базе топливных элементов. И только затем следует ожидать появления мобильных устройств, оснащенных встроенными энергоустановками на топливных элементах.