Современная электронная библиотека ModernLib.Net

Компьютерра (№255) - Журнал «Компьютерра» №25-26 от 12 июля 2005 года

ModernLib.Net / Компьютеры / Компьютерра / Журнал «Компьютерра» №25-26 от 12 июля 2005 года - Чтение (стр. 4)
Автор: Компьютерра
Жанр: Компьютеры
Серия: Компьютерра

 

 


А как вообще это делается? Существует ли какая-то теория такого необычного «программирования»?

— Математическое описание поведения таких физических сред[Рекомендую, например, замечательную книгу И. Пригожина и И. Стенгерс «Время, хаос, квант. К решению парадокса времени». — М.:, «Эдиториал УРСС», 2001] основано на исследовании траекторий изображающих точек в фазовом пространстве системы.

Было установлено, что каждой устойчивой динамической неоднородности в среде (например, автосолитону) соответствует устойчивая замкнутая траектория — цикл в конфигурационном пространстве, к которому «стягиваются» траектории, пролегающие в некоторой «близости» от него. Такой цикл получил название «аттрактор». Конфигурационное пространство многомерно, поэтому аттракторы в нем не всегда выглядят точками или линиями, но чаще всего являются поверхностями или объемами. Обнаружены и вовсе экзотические аттракторы[Их так и называют — «странные аттракторы»] — не просто многомерные, но обладающие дробными размерностями. Они являются фрактальными объектами в конфигурационном пространстве. В системах со странными аттракторами возможно возникновение чрезвычайно сложных процессов. Фактически эти аттракторы способны порождать такие реакции системы, которые нельзя ни предсказать, ни воспроизвести повторением любого набора начальных возмущений.

Физическую систему можно «сконструировать» так, что в ней будет «сосуществовать» множество аттракторов в чрезвычайно сложноорганизованном конфигурационном пространстве. Здесь есть широчайшее поле для творчества!

Получается, что, конструируя процессы, мы «выходим» из привычного физического пространства и «работаем» в абстрактном, виртуальном пространстве? Что ж, для программистов довольно привычное занятие…

— Но только программисты — не физики. И в последнее время — даже не инженеры, увы…

Основная же идея «программирования» поведения физических сред такова: для того чтобы в среде возникла требующаяся нам неоднородность, нужно так выбрать начальное возмущение, чтобы оно перевело систему в состояние, находящееся в «сфере притяжения» соответствующего аттрактора, после чего в среде, после «выключения» начального возмущения, начнется самопроизвольное образование неоднородности определенного типа и структуры.

Из сказанного должно быть понятно, что задача «программирования» обработки данных в физической среде распадается как минимум на три подзадачи, каждая из которых сама по себе чрезвычайно сложна:

теоретический синтез структуры динамической неоднородности, «способной» желаемым образом обрабатывать информацию[Например, расчет пространственной структуры интерференционного автосолитона, обладающего свойствами комплексно-сопряженного оптического фильтра];

выбор (или, в общем случае, синтез) физической среды, свойства которой будут позволять ей поддерживать процессы самоорганизации, приводящие к формированию требующихся нам динамических неоднородностей;

определение параметров начального «толчка», вызывающего появление в среде нужной нам структуры неоднородностей (из множества возможных, но не подходящих для решения нашей задачи).

На любой из этих задач можно запросто «свихнуть мозги»…

Выходит, даже принцип работы «виртуальных» вычислителей совсем другой… Нет ни арифметических операций, ни дискретной логики, ни привычных ячеек памяти… И нет программы в привычном понимании. Полный отказ от стереотипов!

— Следует принять во внимание и то, что вычислительный процесс в нелинейной динамической системе представляет собой некоторую эволюцию ее состояния, чем отличается от «обычного» вычисления, предположим, в микропроцессоре. Грубо говоря, микропроцессор «до» и «после» вычисления остается одним и тем же объектом, тогда как динамическая неоднородность в среде в процессе вычисления из исходного состояния переходит в состояние, соответствующее искомому результату. Фактически исходная структура неоднородностей разрушается. Для ее воссоздания (равно как и поддержания в процессе работы вычислителя) необходим периодический или непрерывный подвод энергии. Надо отметить, что аналогичным образом работают и квантовые компьютеры, в которых информация представляется состоянием вычислителя, то есть его квантовой структурой, изменяющейся в ходе вычислений.

Здесь мы вплотную подходим еще к одной глубокой взаимосвязи термодинамики и динамики вычислений. По существу, понятие термодинамического цикла оказывается приложимо к описанию процесса вычисления, происходящему в неравновесной физической системе.

И что дальше?

— Это трудный вопрос, возможно, с неожиданным ответом. Грандиозные успехи полупроводниковой вычислительной техники неоспоримы. Существует ли потребность в устройствах обработки данных, построенных на принципиально иных принципах? Способны ли они конкурировать с электронными вычислителями?

Варианты ответов на эти вопросы могут показаться несколько странными: да, эти устройства по многим параметрам могут конкурировать с электроникой, но потребность в них сегодня определяется не их техническими характеристиками.

Фундаментальное значение имеет сама возможность целенаправленного создания неравновесных диссипативных структур, обладающих свойствами, присущими живым объектам, — способностью к самоорганизации и усложнению своей структуры в условиях потребления энергии и информации из окружающей среды. По существу, речь может идти о программе создания искусственных живых объектов, по крайней мере в термодинамическом и информационном смыслах.


Вычислительные возможности физических систем

Сет Ллойд (Seth Lloyd) — профессор квантовомеханических технологий Массачусетского технологического института и создатель первого в мире квантового компьютера, дал оценку предельных вычислительных параметров физических систем[Seth Lloyd, Ultimate physical limits to computations//Nature, V. 406, August, 31, 2000.] (см. также www.arxiv.org/abs/quant-ph/0110141

«обычный» современный компьютер — количество преобразований в секунду 109, объем хранимой информации 1012 бит;

так называемый предельный компьютер, в качестве которого рассматривается материя массой 1 кг в объеме 1 л (то есть имеющая плотность воды), — количество преобразований в секунду 1051, объем хранимой информации 1031 бит;

черная дыра, представляющая собой результат гравитационного коллапса вещества массой 1 кг и имеющая радиус 10—27 м, обладает способностью выполнять 1035 элементарных преобразований в секунду, храня при этом 1016 бит информации;

вся наша Вселенная. В расчет принимается лишь вещество, содержащееся в пределах наблюдаемых границ нашего Мира.

Вселенная-компьютер обладает быстродействием 10106 операций в секунду при объеме хранимой информации 1092 бит.

Следует помнить, что эти оценки характеризуют лишь «способность» тех или иных физических систем обрабатывать информацию, но не дают никаких указаний на то, как технически организовать эти процессы и осуществлять ввод и вывод данных.

Так, например, некоторый объем низкотемпературной плазмы, полученной при помощи СВЧ-разряда, можно рассматривать в качестве «действующей модели» «предельного компьютера», однако никто сегодня не может сказать, каким образом эту плазму можно запрограммировать на реализацию, например, алгоритма игры в шахматы.

Информация из холодильника

В 1925 году Альберт Эйнштейн, математически исследовав поведение охлаждаемого вещества, подтвердил гипотезу гениального индуса Шатьендраната Бозе о том, что в состоянии глубокого охлаждения механическое движение частиц вещества прекращается, а отдельные атомы (или молекулы), потеряв связанную с тепловым движением информацию, становятся квантово неразличимыми, «размазанными» по всему занимаемому веществом объему.

Такое состояние материи, образованной делокализованными, когерентными (то есть находящимися в одинаковом квантовом состоянии) частицами, получило название конденсата Бозе-Эйнштейна. В эксперименте с двумя тысячами атомов рубидия, охлажденными в магнитной ловушке до 20 нанокельвинов, это состояние удалось получить лишь в 1995 году практически одновременно двум исследователям — Эрику Корнеллу (Eric Сornell, Национальный институт стандартов США) и Карлу Виману (Karl Wieman, Колорадский университет). Позднее Вольфганг Кеттерле (Wolfgang Ketterle) сумел превратить в конденсат сто тысяч атомов натрия.

Очень впечатляюще выглядят эксперименты, приводящие к возникновению макроскопических, но по сути — квантовых форм движения вещества. Например, в 1996 году физикам Массачусетского технологического института удалось создать «атомный лазер» — «струю» бозе-эйнштейновского конденсата, представляющую собой поток делокализованных атомов. Квантовые свойства такого пучка позволяют фокусировать его «в пятно» практически атомных размеров, что открывает возможность использования этого эффекта в литографии ультравысокого разрешения.

Достигнутые результаты показали, что для управления поведением большого (макроскопического) образования, каким является конденсат, к нему требуется подвести ровно столько информации, сколько понадобилось бы для управления одной микрочастицей. Таким образом, для непосредственного управления механическим движением вещества в состоянии бозе-эйнштейновской конденсации, можно применять такие чисто информационные операции, как пространственная фильтрация, коррекция волновых фронтов и т. п.

Конденсат обладает свойствами квантового процессора: сформировав некоторым образом исходное состояние конденсата, мы можем воздействовать на него так, чтобы заставить эволюционировать всю систему в некое конечное, результирующее состояние, измерение которого и даст результат квантового вычисления.

Суперкомпьютер «Black Hole»[Black hole — черная дыра (англ.)]

Анализом информационных характеристик физических процессов, протекающих в окрестности черных дыр, в 70-х годах прошлого столетия активно занялся Стивен Хокинг (Stephen Hawking, Кембриджский университет). В частности, он и Якоб Бекенштайн (Jacob Bekenstein, Еврейский университет в Иерусалиме) смогли показать, что черная дыра массой 1 кг способна хранить примерно 1016 бит информации в объеме сферы радиусом 10—27 м.

В своих работах Хокинг впервые предсказал процесс «испарения» черной дыры, сопровождающийся специфическим излучением, впоследствии названным его именем. Он показал, что это излучение должно иметь абсолютно случайный характер. Иными словами, черная дыра представляет собой «генератор белого шума», не содержащего никакой информации ни о процессах, протекающих внутри черной дыры, ни о структурных особенностях вещества, поглощенного черной дырой.

Впрочем, некоторые исследователи, устояв перед колоссальным авторитетом Хокинга, предложили свою модель процессов, протекающих в окрестности черных дыр. Леонард Сасскинд (Leonard Susskind, Стэнфордский университет), Джон Прескилл (John Preskill, Калифорнийский технологический институт) и Джерард Хоофт (Gerard ’t Hooft, Утрехтский университет, Нидерланды), учитывая требования квантовой механики, запрещающей процессы, протекающие с потерей информации, предположили, что излучение черных дыр не является белым шумом, а представляет собой результат вычислительного процесса, происходящего в окрестности черной дыры[Jack Ng, From computation to black holes and space-time foam//Physical Review Letters, V. 86, No 14, April, 2, 2001.]. Исходной информацией и программой для этого процесса является структура вещества, поглощенного черной дырой. Летом прошлого года Стивен Хокинг присоединился к мнению этих ученых, признав их правоту (см., например, «КТ» ##561).

Вычисления осуществляются черной дырой чрезвычайно быстро. Фактически время вычислений не зависит (!) от объема обрабатываемой информации, а определяется лишь геометрическими размерами дыры. В теории показано, что время вычислений оказывается равным промежутку времени, который требуется свету, чтобы пройти от одной границы этого «вычислителя» до другой. Так, для килограммовой черной дыры время вычисления равно 10—35 с. Собственно говоря, черная дыра представляет собой самый быстродействующий вычислитель, возможный в нашем Мире.

Ученым пока не очень понятны механизмы «вывода результатов» вычислений черных дыр. И уж совершенно неясно, каким образом программировать вычисления столь экзотического «компьютера». Теоретически известно, что черная дыра способна осуществить любое вычисление, но как приготовить исходное состояние (структуру? последовательность? пространственное или временное распределение?) падающего в черную дыру вещества, чтобы в результате излучение Хокинга «выдало» искомый результат, не знает никто.

Твердый орешек

Высокая плотность и сложность строения твердых тел порождают огромное количество физических явлений, одновременно «сосуществующих» в объеме материала. Если же добавить сюда ярко выраженные нелинейные свойства твердых сред, приводящие к возникновению взаимовлияний физических явлений, эффектов усиления, генерации, «перекачки» энергии от одних физических процессов к другим, становится понятно, почему внимание исследователей приковано к проблеме создания монолитных твердотельных устройств обработки информации. Большинство ученых и инженеров считают, что именно твердое тело будет основой вычислительных устройств (или сред?) будущего, хотя на пути их создания стоят невероятные трудности математического моделирования физических процессов, протекающих в нем.

Можно выделить два принципиально разных подхода к решению этой задачи: интегральный и функциональный. Реализацией интегрального подхода стали полупроводниковые микросхемы всех современных типов. Функциональный подход породил множество удивительных устройств, нашедших применение в СВЧ-технике, связи и автоматике. Тем не менее теории синтеза твердотельных систем обработки данных до сих пор не существует.

Еще в 60-х годах прошлого столетия в работах исследователей была поставлена задача создания так называемых управляемых континуальных сред, то есть твердых сред, способных непосредственно принимать сигналы извне, обрабатывать содержащуюся в них информацию и выдавать результат. Задача эта оказалась чрезвычайно сложной, и решить ее в общем виде пока не удалось.

Математическое моделирование процессов в твердых телах дало важные сведения касательно того, каким образом «группировать» протекающие там процессы с целью их совместного использования. Стало понятно, что континуальные вычислители легче строить на базе явлений, параметры которых сильно взаимосвязаны, — например, магнитоэлектрических, термомеханических, электронно-механических процессов, фотонно-фононных взаимодействий и т. д. Для формализации синтеза континуальных систем обработки данных предпринимались попытки использовать аппарат теории автоматов и строить графы взаимодействия физических процессов, где каждый элементарный автомат представляет то или иное физическое явление в твердом теле, а ребра графа описывают взаимовлияния.

Отдельно стоит упомянуть проекты использования квантовых процессов в твердых телах. Чтобы не связываться с техническими трудностями получения и поддержания экстремально низких температур, многие исследователи занялись разработкой приложений квантовой оптики твердых сред, большинство явлений которой протекают при обычных температурах. Вероятно, самым поразительным результатом этих работ можно считать фотонные кристаллы — искусственно синтезированные твердотельные структуры, обладающие рядом необъяснимых с позиций классической оптики свойств, а также способностью воспринимать и обрабатывать информацию, «закодированную» в параметрах когерентного оптического сигнала. Однако инженерные методики конструирования вычислительных сред на базе фотонных кристаллов еще предстоит создать. — Ю.Р.

Меж нулем и единицей

54 года — и все тот же «принцип арифмометра»…

Впрочем, грех жаловаться — этот принцип оказался столь гибким в приложениях, что даже принципиально новые идеи вычислительных устройств (например, нейроподобные сети или системы с нечеткой логикой) вначале реализуются в виде программ для «обычных» компьютеров. Зачастую они в этом виде так и остаются навсегда… Все это наводит на мысль, что, возможно, «компьютеры послезавтрашнего дня» с точки зрения «железа» не будут чем-то особенным отличаться от нынешних, но вот процессы, протекающие в их недрах, скорее всего, будут совсем другими.

Вот об этих «других процессах» мы и поговорим.

Цифра или не цифра?

Аналоговые вычислительные машины (АВМ), как известно, устроены не по принципу арифмометра. Обрабатываемая информация в них представляется теми или иными физическими величинами — чаще всего электрическими: напряжением, током, сопротивлением, реже — частотой или интервалами времени. Однако во всех случаях это измеряемые величины, которые доступны непосредственному измерению при помощи прибора.

Кроме измеряемых величин, физические процессы характеризуются также вычисляемыми параметрами, которые недоступны непосредственному измерению прибором и в то же время не всегда сводимы к простым процедурам арифметических манипуляций с измеряемыми величинами. Вычисляемые параметры тоже являются аналоговыми величинами, так как могут непрерывно приобретать любые, сколь угодно мало отличающиеся друг от друга значения. Принципиально важно, что эти величины тоже могут быть носителями информации, подлежащей обработке или запоминанию.

Обратим внимание на одну из богатейших по своим информационным возможностям аналоговую вычисляемую величину — вероятность. Именно то, что вероятность всегда вычисляется и предстает перед нами в виде цифры, маскирует ее аналоговую «сущность».

Отметим также, что вероятность наступления какого-то события (например, переключения триггера) как величина или параметр, характеризующий какой-либо физический процесс, объективно существует даже тогда, когда мы ее не знаем или не можем вычислить. Это очень важное замечание! Постепенное осознание этого обстоятельства позволило в течение тридцатилетней истории работ над вероятностными вычислителями прийти к принципиально новым идеям в этой области; впрочем, об этом поговорим чуть позже.

В 1970-х годах начались активные теоретические исследования и разработки так называемых стохастических вычислительных машин, основанных на вероятностном представлении информации. Переменные и константы в этих аналоговых машинах представлялись вероятностями переключения цифровых логических элементов. Другими словами, информация кодировалась вероятностью, которая в силу своих фундаментальных свойств может принимать непрерывный ряд значений в интервале от 0 до 1.

Архитектура стохастических вычислителей в общем-то повторяла решения, разработанные для аналоговых вычислительных машин: программирование сводилось к набору структурной схемы из решающих блоков, которые в отличие от АВМ были построены не на операционных усилителях, а на логических элементах. Подкупала простота технической реализации вычислителя: замена операций над числами операциями над вероятностями позволила воспользоваться глубокими аналогиями, существующими между аппаратом событийной теории вероятности и принципами математической логики; так, например, операция умножения вероятностей независимых событий формально полностью совпадает с логической операцией конъюнкции, а суммированию вероятностей соответствует операция дизъюнкции. Эти аналогии позволяют считать логические переменные некоторыми случайными событиями, имеющими определенные вероятности появления. С инженерной точки зрения это означает, например, что один логический элемент ИЛИ (дизъюнкция) становится сумматором, а единственный элемент И (конъюнкция) превращается в умножитель!

Этот подход оказался особенно хорош для создания специализированных процессоров, рассчитанных на непрерывное вычисление, предположим, управляющего воздействия в системах управления. Будучи «по природе» аналоговым, такой вычислитель мог решать задачи в реальном времени независимо от объемов вычислений; а будучи цифровым (по элементной базе), он был лишен таких принципиальных недостатков обычных АВМ, как дрейф нуля и шумы операционных усилителей, а также наводок в сигнальных цепях.

Появление широко доступных БИС ПЛИС(Программируемая Логическая Интегральная Схема, еще называется ПЛМ — Программируемая Логическая Матрица) и БМК(Базовый Матричный Кристалл. Обычно отличается от ПЛИС (ПЛМ) наличием на кристалле большого набора базовых элементов ввода-вывода, аналого-цифровых и цифро-аналоговых преобразователей, контроллеров стандартных интерфейсов и т. д.) позволило реализовать на одном кристалле довольно сложные схемы стохастических вычислителей, однако широкого распространения они не получили — сказался главный недостаток этой технологии (как и вообще всех аналоговых технологий): неудобство перепрограммирования и слишком сильная «привязка» исполняемого алгоритма к аппаратной части.

«Принцип арифмометра» победил — наступила эпоха универсальных цифровых вычислителей.

Принцип матрешки

Пытаясь представить облик процессора будущего, я постоянно боролся с соблазном начать фантазировать. Еще бы: тут тебе и квантовые вычисления, и ДНК-вычислители, и белковая логика… Квантовые процессоры я бы выделил в отдельную категорию — по единственной причине: им присущи принципиально отличные от других механизмы обработки информации. Все остальное — те же «арифмометры»…

Короче говоря, если в качестве «послезавтрашнего компьютера» вообразить некий «черный ящик», то становится ясно, что дело не в том, на какой элементной базе он построен, а в том, что построено. Какая обрабатывающая среда находится внутри «ящика»?

Вообще, понятие «обрабатывающая среда» довольно абстрактно. Практически это может быть физическая среда, свойства которой дают ей возможность производить вычисления. Кусок стекла, которому придана форма линзы, — уже вычислитель! Он «умеет» вычислять Фурье-преобразование оптических сигналов… Но вот беда: существует так называемый критерий физической реализуемости. В частности, он означает, что не для всякого вычисления можно подобрать (или создать) соответствующую физическую среду. Но даже если критерий физической реализуемости удовлетворяется, практически создать необходимую среду невероятно трудно!

Гораздо продуктивнее моделировать обрабатывающие среды в цифровом виде. Чтобы сделать это, мы должны взять цифровой процессор (любой! хоть арифмометр) и написать для него программу, эмулирующую информационные процессы и структуру нужной нам обрабатывающей среды. Тем самым мы как бы создаем «виртуальную оболочку» вокруг обрабатывающей среды физического уровня, в качестве которой выступает процессор. Что при этом происходит? А вот что: мы преодолеваем критерий физической реализуемости.

Следующий важный вопрос, мимо которого не пройти: что мы хотим получить? Если под «процессором будущего» понимать просто «ну очень быстрый процессор», то, думается, за этим дело не станет. Но, видимо, мы хотим чего-то большего… Чего?

Честный ответ: хотелось бы создать модель себя. По крайней мере, в части восприятия и обработки приходящей извне информации.

А что это значит, если говорить языком технического задания?

Во-первых, быстродействие. Производительность цифровых процессоров зависит от частоты, разрядности и распараллеливания вычислительных процессов. У аналоговых вычислителей таких ограничений нет, но есть много своих специфических «минусов» и существует упоминавшийся выше критерий реализуемости (поскольку аналоговый процессор — это, собственно, физическая обрабатывающая среда «в чистом виде»). А что, если окружить цифровой процессор виртуальной аналоговой «оболочкой»? Из чего ее сделать? Вариант ответа: эта «оболочка» может представлять собой стохастический вычислительный процесс, оперирующий вероятностями, и тогда отпадают ограничения по быстродействию!

Во-вторых, отсутствие необходимости в программировании. Раз нет программирования, следовательно — самообучение? Да. Нейроподобные сетевые структуры. Об их свойствах написаны горы книг, однако сейчас имеет смысл отметить следующее: нейросети — аналоговые обрабатывающие среды, которые мы давным-давно научились реализовывать в качестве «оболочек» над цифровыми процессорами, но… Но при этом нейросети, реализованные в форме программ, оперирующих цифровыми входными сигналами, сами становятся цифровыми, теряя в быстродействии и в качественных показателях. Один из перспективных вариантов разрешения этого противоречия заключается в создании стохастических нейроалгоритмов, позволяющих сохранять аналоговые принципы функционирования нейросетей при цифровом моделировании(Большая работа в этом направлении проводилась в Киевском институте кибернетики им. В. М. Глушкова под руководством академика Н. М. Амосова, в частности, Э. М. Куссулем, А. М. Касаткиным, Л. М. Касаткиной, Т. В. Федосеевой).

В-третьих, отсутствие жестких алгоритмов функционирования — свойство, открывающее возможности адаптивного поведения и динамического целеполагания. Исследования в этом направлении, проводившиеся у нас и за рубежом, показали, что глубинная суть этих процессов с достаточной степенью адекватности описывается лишь аппаратом теории динамического хаоса. Иными словами, чтобы воссоздать «на практике» обрабатывающую среду, обладающую требуемым «поведением», необходимо либо каким-то образом синтезировать ее «в железе», либо смоделировать нужный тип нелинейной динамики. Во втором случае для этого легче всего использовать все те же стохастические нейросети или матрицы вероятностных клеточных автоматов.

По существу, создавая нейросетевую модель нелинейной динамической системы с нужным нам поведением (не детерминированным, а в среднем!), мы тем самым создаем еще одну «оболочку» — уже вторую! — над исходной физической обрабатывающей средой — цифровым процессором.

Портрет героя

Впечатляющей футуристической картины под названием «Процессор будущего» не получилось. Жаль, если я кого-то разочаровал. Но мне действительно представляется маловероятным резкий (с чего бы вдруг?! И у кого?) рост интереса к созданию каких-то принципиально новых обрабатывающих сред физического уровня — электронных, биологических и даже квантовых.

Гигантский прогресс технических характеристик обычных микропроцессоров и, что особенно важно, накопление огромного арсенала средств разработки — как самих микросхем, так и программного обеспечения всех уровней, — как мне кажется, породили своеобразную «потенциальную яму», «выпрыгнуть» из которой чрезвычайно трудно — нужно много энергии, аналогом которой в данном случае выступают деньги.

Впрочем, всегда есть ненулевая вероятность «туннельного просачивания» сквозь стенки любых потенциальных ям. И для этого, как известно, не нужно много той самой «энергии»!


Практичная теория: день открытых дверей в творческой лаборатории изобретателя

«Физические эффекты и явления — костяк той самой физики, которую современный изобретатель годами изучает в школе и в институте. К сожалению, изобретательскому применению физики там не учат… Изобретателям надо присматриваться к давно знакомым эффектам и явлениям, приучаясь видеть в них рабочие инструменты для творческого решения изобретательских задач».

Генрих Альтшуллер, «Алгоритм изобретения»

Начну с главного тезиса. Все технические системы, устройства и приборы были кем-то изобретены.

Поэтому, когда мне было предложено рассказать о «технологии изобретания» компьютерных устройств послезавтрашнего дня, да еще основанных на новых физических принципах, я понял, что меня провоцируют. По существу, мне предлагалось поиграть в деловую игру «Назвался груздем…»[Автор является руководителем семинара по ТРИЗ]. В первый момент, каюсь, «взыграло»… Короче говоря, я отбросил тщеславные попытки практически изобрести невиданный процессор, а попытался рассказать о возможных подходах к решению этой задачи, основанных на ТРИЗ — Теории Решения Изобретательских Задач, созданной нашим талантливым соотечественником Генрихом Сауловичем Альтшуллером.

Надо сказать, что изобретательские задачи часто путают с задачами научными, техническими, инженерными или конструкторскими. Если мы, имея комплект чертежей топологии, расчеты технологических параметров и таблицы контрольных значений тестовых сигналов, собираемся изготовить микросхему, то это будет технической задачей. Расчет электронной схемы или теплового режима, предположим, полупроводникового лазера по готовым формулам и методикам — задача инженерная. Поиск этих формул и получение методик — типично научная задача. Поиск компромиссов между функциональностью чипа и его площадью на кристалле — суть задача конструкторская. Решение всех этих задач не связано с преодолением каких-то противоречий. Задача становится изобретательской только тогда, когда возникает необходимость одолеть несовместимость[Альтшуллер Г.С., Творчество как точная наука, М., «Советское радио», 1979 г. См. также: Альтшуллер Г.С., Алгоритм изобретения, М., «Московский рабочий», 1973 г.].

Итак. Какие же действительно несовместимые технические характеристики мы ожидаем встретить в процессоре будущего?

Функциональность и простота в использовании. Преодолением этого противоречия постоянно заняты разработчики программного обеспечения[По Г.С. Альтшуллеру, это конструкторская задача]. И, надо сказать, им это неплохо удается, но… В окружающей природе полно примеров очень функциональных и очень простых в использовании «вычислительных устройств»[Мяукающих, гавкающих, чирикающих и т. п. И говорящих, в том числе. Увы], которые вообще не нужно программировать! Их нужно дрессировать, то есть передавать им представления о том, как им себя вести. А программы такого поведения они создают для себя сами. Это мы возьмем на заметку.

Функциональность и размеры… Сразу вспоминаются квантовые процессоры. Новые физические принципы — налицо, экстремально малые размеры собственно «вычислителя» и — в «нагрузку» — кубометры холодильной техники, лазеров и соленоидов. А почему, собственно, нас так интересуют размеры? Мы что, материал экономим? А если поступим так: выведем в околоземный космос несколько тысяч могучих серверов на спутниках, объединим их в сеть, а на локальные машины возложим лишь отправку «наверх» запросов да исполнение команд. Функциональность — выше некуда, а размеры «клиентов» будут под стать их назначению — думаю, не больше мобильного телефона…


  • Страницы:
    1, 2, 3, 4, 5, 6, 7, 8, 9