Современная электронная библиотека ModernLib.Net

Все под контролем: Кто и как следит за тобой

ModernLib.Net / Публицистика / Гарфинкель Симеон / Все под контролем: Кто и как следит за тобой - Чтение (стр. 22)
Автор: Гарфинкель Симеон
Жанр: Публицистика

 

 


      Но многие борцы за гражданские свободы считают, что правоохранительные органы используют угрозу терроризма для оправдания расширения власти и увеличения бюджета, так же как они использовали угрозу диверсий и саботажа во время Первой и Второй мировых войн для оправдания атак на гражданские свободы.
      Харви Сильверглэйт [Harvey Silverglate], адвокат по уголовным делам из Бостона, специализирующийся на проблеме гражданских свобод, формулирует это таким образом:
      Я считаю, что угроза терроризма, о которой вы говорите, сильно преувеличена. «…» Я считаю, что она специально преувеличивается правоохранительными органами, желающими расширить свои возможности. Позвольте мне выразить это так: я не могу вспомнить ни одного события в истории, связанного с массовым уничтожением людей и собственности, которое было бы осуществлено частными лицами или группами, а не правительствами. Отдельные люди, группы, банды – нанесенный ими вред бледнеет по сравнению с тем вредом, который нанесли неконтролируемые правительства. В истории нет примеров Холокоста, за которыми не стояло бы государство.
      Конечно, все потенциалы оружия массового уничтожения, обсуждаемые в данной главе, разработаны и улучшены правительствами. «Поэтому, – говорит Сильверглэйт, – я предпочел бы жить в мире, где правительства более ограничены в своих действиях, чем давать правительствам огромные, ничем не ограниченные возможности по обузданию частного терроризма. Я предпочел бы уживаться с некоторым количеством терроризма, чем с правительственным тоталитаризмом».
      Даже если Сильверглэйт не прав, очевидно, что демократизация деструктивных технологий вкупе с постоянно уменьшающимся размером террористических ячеек привела к тому, что глобальный мониторинг потенциальных экстремистов и террористов является обреченной на провал тактикой. Заманчиво думать, что все, что нам нужно, – это пожертвовать своими гражданскими свободами, а именно правом на приватность, и мы навсегда будем защищены от террористических атак. Но такой выбор – глупая сделка, поскольку таких гарантий никто не сможет дать.
      Вместо слежки за людьми, гораздо лучше было бы следить за радиоактивными материалами и ограничить доступность химических отравляющих веществ и исходных материалов для них. Вместо того чтобы поступаться приватностью, мы должны увеличить вложения в здравоохранение, создать запасы антибиотиков и активно контролировать окружающую среду на предмет появления первых признаков применения биологического оружия. В конце концов мониторинг появления новых микроорганизмов защитит нас как от микробов, созданных человеком, так и от микробов, существующих в природе.
      Наконец, мы должны сконцентрироваться на построении общества, более устойчивого к разрушению крупных городов, которое почти наверняка может произойти в один не очень прекрасный день. В частности, мы должны начать планировать, что мы будем делать в случае потери Нью-Йорка.

10
Простите, но человек ли вы?

      Я встретил Тенга среди подписчиков одной из электронных рассылок, посвященной вопросам компьютерных технологий и гражданских свобод. В то время я работал как внештатный журналист и писал материалы о компьютерной революции для нескольких газет и журналов. Тенг работал системным аналитиком и отвечал за работоспособность компьютерных сетей в одном из крупных банков Сингапура. Он заинтересовался одной из моих публикаций и послал мне электронное письмо, в котором рассказал о жизни в его офисе. В течение следующих нескольких месяцев мы стали обмениваться посланиями по электронной почте чаще и вскоре стали «электронными друзьями».
      В течение двух лет мы обменивались с Тенгом электронными письмами как минимум два-три раза в неделю. Он рассказывал мне, что собой представляет жизнь в Сингапуре, какие вещи он покупает в магазинах, о влиянии американской культуры, о том, как его банк «борется» с новыми технологиями. Тенг, в свою очередь, задавал мне множество вопросов. Я рассказал ему о жизни в США, какие виды товаров я предпочитаю покупать, какие фильмы мне нравятся и о покупке какой модели автомобиля я подумываю. Иногда вопросы Тенга были несколько бестактны, но я считал, что он просто интересуется американской культурой. Иногда возникало впечатление, что он не понял смысла отправленного мною письма, иногда он вновь спрашивал что-то, о чем я ему уже рассказывал несколько недель назад. Я всегда списывал эти несуразицы на языковой барьер.
      Но однажды судьба дала мне шанс: один нью-йоркский журнал предложил мне отправиться в Сингапур, чтобы написать репортаж о взрывном развитии высоких технологий в этой стране. Я послал Тенгу электронное письмо с вопросом, не хочет ли он встретиться лично, и если да, то когда ему будет это удобно. Но Тенг проигнорировал это письмо; он ответил мне обычным сообщением, в котором рассказал, чем он занимался в последнее время, и поинтересовался, что нового произошло в моей жизни. Я послал ему второе письмо, затем третье, с вопросом о возможности нашей встречи. Наконец он прислал мне ответ, в котором говорилось, что как раз во время моего визита его не будет в городе и встретиться нам нет никакой возможности.
      Не знаю почему, но у меня возникли подозрения в отношении Тенга. Я вдруг осознал, что практически ничего о нем не знаю. В одном из писем я спросил его домашний адрес и номер телефона, но он не ответил. Я связался с банком, в котором, по его словам, он работал. Но там никогда не слышали о таком человеке. Наконец, я обратился к одному своему другу, который работал в New York Times.Через репортеров сингапурского бюро Timesон навел справки. Получение информации заняло около недели, но когда я узнал правду, я не мог в нее поверить!
      Банк, в котором работал Тенг, заключил контракт с американской фирмой, занимающейся исследованиями рынка. Компания создала группу вымышленных личностей, которые «вылавливали» в Интернете американцев, устанавливали с ними дружеские отношения и вытягивали из них ценную для заказчика информацию. Тенг не был реальным человеком, это была компьютерная программа!

Смоделированному человеку нельзя доверять

      К счастью для пользователей Интернета, история с Тенгом вымышленная. Хотя я часто завожу «электронные знакомства» с людьми, которых встречаю в списках электронной рассылки по профессиональной тематике, у меня есть достаточно оснований полагать, что мои корреспонденты, находящиеся в Англии, Индии или Японии, являются существами из крови и плоти, а не компьютерными программами, засланными собирать интимные подробности моей жизни.
      Между тем многие технологии, необходимые для создания Тенга, существуют уже сегодня. Конечно, Тенг не может быть создан как полноценная модель человеческого интеллекта. Однако он и еще тысячи подобных моделей могут быть созданы путем использования шаблонов, на основе стереотипности мышления, предсказуемости ответов и большого количества средств автоматизированной обработки текста.
      Тенг представляет угрозу основам, на которых строятся человеческие отношения. Доверие, честность, уникальность и юмор – ценные качества. Ложь не одобряется ни в одном человеческом обществе. Люди понимают, что это неправильно, и очень часто чувствуют вину, обманывая других. Эти проблемы встают каждый раз, когда люди общаются друг с другом. Правда, всегда найдутся те, кто не захочет играть по правилам, но их достаточно легко вычислить через некоторое время. Общество даже наказывает таких людей, когда они слишком заходят за рамки этики.
      Смоделированный человек не может испытывать чувство раскаяния. Он не понимает языка обычных эмоций, созданного человеческим сообществом. Маскирующийся под человека компьютер, который пытается строить человекоподобные отношения и никогда не откроет, что он машина, может быть применен только для использования в неких целях реальных людей, с которыми он вступает в контакт.

ELIZA и ее потомки

      Первой компьютерной программой, имитирующей человека, была ELIZA, разработанная Джо Вейценбаумом [Joe Weizenbaum] из Лаборатории искусственного интеллекта Массачусетского технологического института. ELIZA представляла собой простейшую модель человеческого интеллекта. Вейценбаум создал программу в начале 1960-х, когда остальной персонал Лаборатории ИИ бился над созданием компьютера, способного понимать английский язык. Но это было слишком сложно. Вместо того чтобы пытаться создать разумныйкомпьютер, Вейценбаум создал компьютерную программу, поведение которой выгляделоразумным. «Я взял все свои шутки, собрал их вместе и на этой основе запустил ELIZE», – рассказывал он исследователю-историку искусственного интеллекта Даниелю Кревье [Daniel Crevier].
      ELIZA была очень простой программой, изображавшей роджерианского психотерапевта – последователя школы психиатрии, основанной Карлом Роджерсом. Роджерианская техника состоит в побуждении пациента говорить о своих проблемах, отвечая вопросом на вопрос. ELIZA анализировала введенные человеком фразы, находила среди частей речи глаголы и существительные, переворачивала предложение наоборот и выводила его на экран. Вы могли сказать программе: «Мой парень заставил меня прийти сюда», на что ELIZA отвечала: «Почему Ваш парень заставил вас прийти сюда?» Если у нее возникали затруднения, она могла вернуться к более ранним темам разговора или отделаться шаблонной фразой типа: «Почему Вы пришли сюда сегодня?»
      На опытного специалиста-компьютерщика или лингвиста ELIZA не производила впечатление сложной и умной программы. Но для неподготовленного пользователя ее способность поддерживать разговор казалась удивительной. Даже люди, которые знали, что ELIZA – всего лишь компьютерная программа, увлекались этой игрой. Они доверяли ей свои личные секреты и проблемы. «Секретарь Вейценбаума, которая наблюдала в течение нескольких месяцев работу над программой, попросила, однако, выйти его из помещения на время ее первого „терапевтического“ сеанса с программой», – пишет Кревье.
      Шокированный поведением своего детища, Вейценбаум вскоре пришел к выводу, что «основная идеология развития искусственного интеллекта – искусственный разум – безнравственна».
      После того как ELIZA была написана, этот «подвиг» повторили десятки тысяч программистов. Хью Лебнер [Hugh Loebner], изобретатель и богатый филантроп, спонсирует ежегодный конкурс по написанию программ, имитирующих человека. Автора программы, поведение которой невозможно будет отличить от поведения реального человека из плоти и крови, ожидает приз в размере 100 тысяч долларов и медаль из чистого золота весом 14 карат. Пока это не удалось никому. Большинство представленных на конкурс программ «срезались» из-за недостаточного владения английским языком и отсутствия доступа к огромному количеству знаний, являющихся для всех нас само собой разумеющимися.
      Однако в менее формальных условиях программы, подобные ELIZA, могут быть приняты за человека. Первое описание такой ситуации, наиболее ярко демонстрирующее проблему приватности применительно к искусственному интеллекту, относится к 1989 году. Речь идет об общении программы MGonz, запущенной в Ирландии, и старшекурсника университета Дрейк в Айове. MGonz была создана Марком Хамфрисом [Mark Humphrys], старшекурсником университетского колледжа в Дублине. Программа отличалась от ELIZA тремя важными моментами. Во-первых, вместо того чтобы общаться на классическом английском языке, MGonz часто обращалась к сленгу, используемому малолетними хакерами. Во-вторых, автор провел «стажировку» программы в сети BITnet, позволяя ей обмениваться короткими сообщениями с участниками сети по всему миру. Наконец, MGonz вела журнал всех своих переговоров.
      Во вторник вечером, 2 мая 1989 года, Хамфрис оставил программу запущенной и ушел домой. В 20:12 по ирландскому времени студент из Дрейка начал посылать сообщения программе. Программа отвечала ему. В течение последующего часа и двадцати минут программа выудила из дрейковского студента подробности его сексуальной жизни. К концу сеанса, не осознавая, что ведет диалог с машиной, студент поведал программе, что он потерял девственность в 17 лет, а прошлой ночью занимался сексом в спальне своей подружки. «Войдя в систему на следующий день, я был немало удивлен, что программа успела натворить в мое отсутствие», – вспоминает Хамфрис, поместивший позже запись этой сессии в Интернет (предварительно удалив из текста, по понятным соображениям, имя студента из Дрейка). Хамфрис сказал мне:
      Я всегда слегка беспокоился по поводу этой программы, пока не понял, что она преподала прекрасный урок. Мне понадобилось шесть лет, чтобы осознать это. Заметьте, что все самые дикие непристойности и обещания всегда исходят от человека, а не от машины, которая отвечает с холодным безразличием и задает немного приводящих в бешенство вопросов.
      MGonz лишь одна из многих программ искусственного интеллекта, прокладывающих свой путь через киберпространство. Другой робот, вызвавший раздражение многих миллионов людей, носил имя Zumabot. Zumabot сканировал конференции Usenet в поисках публикаций, содержащих слово «Turkey», и отвечал на них агрессивными сообщениями о мнимом массовом убийстве мусульман в Армении во время Первой мировой войны.
      По мнению автора статьи, появившейся в Internet Underground,создание Zumabot было оплачено турецкими спецслужбами. Программа буквально стала пропагандистской машиной. Ее целью было дискредитировать тех, кто говорил о массовом убийстве турками армян в 1917 году, путем многократного повторения, что все было наоборот. «Zumabot был частью широкомасштабной политики подавления разногласий среди турецких экспатриантов».
      Виртуальные роботы становятся неотъемлемой частью интерактивных многопользовательских игр [MUD – Multi-User Dungeon games] в Интернете. Программы, подобные ELIZA, часто инициируют общение с одинокими людьми, выдавая себя за женщин, желающих установить приятельские отношения.
      Многие электронные сообщества установили правила, по которым компьютер обязан идентифицировать себя. Шахматный клуб Интернета [ICC, Internet Chess Club], позиционирующий себя как «самый активный шахматный клуб в мире», регулярно посещает 20 тысяч пользователей, и в нем ежедневно проходит 60 тысяч шахматных партий. В этом клубе есть специальное правило относительно использования компьютеров: все компьютеры должны быть зарегистрированы. Использование незарегистрированного компьютера приводит к аннулированию регистрационной записи. Компьютерам и людям запрещается совместно использовать одну регистрационную запись. И возможно, самое главное – компьютерным программам запрещено предлагать игру людям, им можно лишь откликаться на приглашение.
      «Человек имеет право знать, играет он с компьютером или с человеком». Правила ICC гласят:
      Использование компьютера без уведомления администрации, или без соответствующей метки [в профиле учетной записи], или без помещения учетной записи в список «компьютерных» [является нарушением правил системы]. У нас многолетний опыт выявления использования компьютеров, поэтому не пытайтесь нас обмануть. Берегите свое время и время администрации: своевременно подавайте запрос на включение в компьютерный список.
      ICC имеет два вида проблем с роботами, говорит Мартин Грунд [Martin Grund], директор ICC по интерактивной деятельности. Первая проблема заключается в в том, что некоторые люди создают программы, которые соединяются с клубом, входят в систему и приглашают людей сыграть партию. Вторая, более тонкая проблема, возникает с теми, кто входит в систему сам, но фактически играет за них запущенная на их компьютере шахматная программа (это давняя проблема при игре в шахматы по переписке).

Алан Тьюринг

      Многие считают Алана Тьюринга [Alan Turing] отцом искусственного интеллекта. Он действительно является одним из основателей компьютерной науки. Во время Второй мировой войны благодаря усилиям Тьюринга британское правительство смогло вскрыть шифры, при помощи которых нацистский режим держал связь со своими подводными лодками и военачальниками. После войны Тьюринга все больше и больше стала интересовать идея создания компьютера, который мог бы вести себя подобно человеку. Сегодня Тьюринг известен благодаря тесту Тьюринга, простому эмпирическому правилу, позволяющему установить, действительно ли компьютер думает и обладает самосознанием или он имитирует человеческий разум. Суть этого теста заключается в практическом испытании, происходящем приблизительно так: человека помещают в изолированную комнату с компьютером. После этого ему предоставляется возможность общаться с другим человеком и с компьютерной программой, при этом все общение происходит исключительно с помощью клавиатуры и экрана. Если испытатель не может различить машину и человека, то компьютерная программа признается такой же интеллектуальной и разумной, как и человек. [Фотография любезно предоставлена Компьютерным музеем (Бостон, Массачусетс) и Историческим центром (Маунтинвью, штат Калифорния)]
      «Играть в шахматы на уровне гроссмейстера при поддержке компьютера – способ удовлетворения своих амбиций, в то время как противник в Чили, Аргентине или Австралии осознает свою слабость перед гроссмейстером и сдается, – говорит Грунд. – Получение удовольствия от сознания, что ваш компьютерстал победителем, достаточно странно».
      ICC не считает проблемой сам факт подключения к системе компьютеров и роботов, говорит Грунд. Действительно, в системе ICC всегда есть достаточное количество компьютерных оппонентов готовых сразиться и помочь всем желающим повысить свой уровень. Но эти программы никогда не лгут и не притворяются людьми. Если вы пошлете такой программе сообщение: «Привет», она ответит: «Извините, но я всего лишь компьютер. Это мне Вы сказали „привет“».
      «Люди, которые нарушают правила и пытаются выдать свои компьютеры за людей, не правы с точки зрения морали, – говорит Грунд. – Шахматы – честная игра. А обманывать в честной игре по меньшей мере трусость. Это бесчестно».
      Шахматный клуб Интернета является хорошей базой для развития межчеловеческих связей с использованием компьютерных технологий, а установленные в нем правила применимы гораздо шире. Люди должны быть юридически защищены от попыток компьютеров выдать себя за людей. Такой маскарад является по сути мошенничеством. Из этого не следует, что надо запретить использовать компьютеры в общении между людьми. Но обязанность помечать все свои сообщения как сгенерированные машиной должна стать законом для всех компьютеров. Более того, все машинные сообщения должны содержать подробную информацию, каким образом можно связаться с человеком, ответственным за данный компьютер, т. е. с оператором. Это единственный способ правомерной интеграции интеллектуальных программ в человеческое общество.

Компьютер как ваш агент

      Информационная перегрузка – одна из серьезнейших проблем, с которой сталкиваются сегодня работники умственного труда. Каждый день на нас сваливаются тысячи сообщений по электронной почте, web-страниц и газетных статей. Информация льется на нас со страниц книг и журналов, из радио, с телевидения, из инструкций по использованию, с видеокассет, из новых фильмов, с досок объявлений и даже рекламы в небе.
      Один из ключевых механизмов, предлагаемых современными технологиями для борьбы с информационной перегрузкой, – это интеллектуальный агент.Идея такой программы состоит в том, что она знает ваши интересы и предпочтения и использует данную информацию для фильтрации огромного потока информации, врывающегося в вашу жизнь таким образом, что вы видите лишь то, что желали бы увидеть. Хотя для создания таких агентов предлагалось использовать самые разные технологии, первой на рынке появилась технология называемая совместной фильтрацией.
      Идея совместной фильтрации чрезвычайно проста. В реальном мире слишком много газет, записей, книг, фильмов, радио- и телевизионных станций, чтобы можно было уделить внимание всему этому разнообразию. Но вам это и не нужно. Вместо этого, вы спрашиваете своих друзей об их предпочтениях. Рано или поздно вы определяете, с кем из ваших друзей вы сходитесь во вкусах по части музыки и новостей, а чьи интересы так же далеки от вас, как планета Юпитер. Вы определяетесь, кому доверять. Конечно, такое сотрудничество – процесс двусторонний, и вы тоже будете давать рекомендации своим друзьям. И естественно, когда вы обнаружите, что кому-то из друзей приходятся по вкусу ваши советы, вы больше станете доверять его советам. Но до того, как вы узнаете это, вам, возможно, придется организовать собственный список рассылки.
      Компьютеризованная совместная фильтрация автоматизирует этот процесс. Рекламщики утверждают, что совместная фильтрация может быть использована для доставки информации потребителю более точно, чем, например, поиск по ключевым словам. Они утверждают, что могут сформировать общественное мнение на безликом в другой ситуации web-сайте.
      Известный онлайновый книжный магазин Amazon.com использует разновидность совместной фильтрации, чтобы помочь покупателям в выборе книг. В основе системы лежит теория о том, что если существует книга, которая нравится одновременно двум людям, вероятнее всего, существует и еще целый ряд книг, которые заинтересуют их обоих. Система пытается найти пересечение интересов разных людей, и у нее это неплохо получается. Например, если вы выберете «Практическую безопасность UNIX и Интернета» [Practical UNIX & Internet Security],одну из моих книг, Amazon сообщит вам:
      Клиенты, которые купили эту книгу, купили также «Построение межсетевых экранов в Интернете» Брента Чапмена и др. [Building Internet Firewallsby D. Brent Chapman et al.]; «Основы компьютерной безопасности» Деборы Рассел и Г.Т. Гэнджеми [Computer Security Basicsby Deborah Russel]; «Администрирование сетей TCP/IP» Крейга Ханта и Гиджи Эстабрук (редактор) [TCP / IP Network Administrationby Craig Hunt and Gigi Estrabook (editor)]; «Краткий курс системного администрирования: в помощь системным администраторам UNIX (карманный справочник)» Элин Фриш [Essential System Administration: Help for UNIX System Administrators (Nutshell handbook)by Eleen Frish].
      После того как вы покупаете на Amazon.com несколько книг, система анализирует ваши покупки и строит огромную матрицу, содержащую корреляции между вами и всеми остальными клиентами. Когда я захожу на web-сервер Amazon, он встречает меня, например, таким приветствием: «Здравствуйте, Симеон Л. Гарфинкель! Мы можем порекомендовать вам книги по темам „Компьютеры и Интернет“, „Документальная литература“, „Развлечения“ и другие». Если я выберу раздел «Документальная литература», система порекомендует мне пять книг:
      «Холодный гнев: История о вере и могуществе политиков» Мери Бет Роджерс и Билла Мойерса (введение) [Cold Anger: A Story of Faith and Power Politicsby Mary Beth Rogers, Bill Moyers (introduction)]; «В поисках приватности: Закон, этика и развитие технологий» Джудит Вагнер Дисью [In Pursuit of Privacy: Law, Ethics and the Rise of Technologyby Judith Wagner Decew]; «Технология и приватность: Новый ландшафт» Филипа Эгра (редактор), Марка Ротенберга (редактор) [Technology and Privacy: The New Landscapeby Philip Agre (editor), Marc Rotenberg (editor)]; «Ваше право на приватность: Базовое руководство по законным правам в информационном обществе (сборник Американского союза за гражданские свободы)» Эвана Хендрикса и др. [Your Right to Privacy: A Basic Guide to Legal Rights in an Information Society (An American Civil Liberties Union Handbook)by Evan Hendricks, et al.]; «Диалог между классами и другие уроки первичной организации» Линды Стоут и Говарда Зинна [Bridging the Class Divide and Other Lessons for Grassroots Organizingby Linda Stout, Howard Zinn].
      Совершенно очевидно, что Amazon знает, что я покупал книги по определенной тематике, и хочет помочь мне купить еще!
      Другие системы потенциально гораздо более сложны. Когда я был аспирантом MTI и работал в Лаборатории медиа, там было большое количество различных видов интеллектуальных агентов. Джон Оруэнт [John Orwant], научный сотрудник, разработал программу Doppelganger. «Doppelganger – мистическое чудовище из германского фольклора, которое выбирало невинного человека и подглядывало за ним из тени, наблюдая за его привычками, встречами, эмоциями и особенностями, – объяснял Оруэнт. – Через некоторое время Doppelganger начинал походить на этого человека, вести себя как этот человек, и в конечном счете становился этим человеком незаметно для всех».
      Созданный Оруэнтом программный Doppelganger пытался сделать то же самое. Программа наблюдала за действиями человека и пыталась построить его модель: что ему нравится и не нравится, наиболее значимые события его жизни. Чем больше информации о вас могла собрать программа, тем точнее она подстраивалась под вас. После этого Doppelganger делал свою базу данных доступной другим программам на вашем компьютере, отвечая на их запросы. Например, глядя, какие электронные издания вы читаете, Doppelganger строил модель ваших предпочтений: какие статьи вам нравятся, а какие нет. На следующий день программа для чтения электронных газет могла спросить Doppelganger, включать или нет конкретную статью в ежедневную подборку для вас. Чтобы не нарушить личную тайну пользователя, вся конфиденциальная информация при передаче ее по компьютерной сети шифровалась при помощи PGP. Другой сотрудник Лаборатории медиа, Макс Метрал [Мах Metral] разработал ассистента для электронной почты. Программа наблюдала за действиями пользователя, строила его модель, после чего пыталась ее задействовать. Например, если программа замечала, что вы читаете электронные письма от вашей матери сразу же после их получения, то программе начинала автоматически открывать их для вас сразу после их поступления в почтовый ящик, после чего складывала в отдельную папку.
      Нет никаких причин, по которым программа останавливалась бы на этом. Умная программа для чтения почты может делать разбор входящей корреспонденции и помещать найденную там информацию в базу данных на естественном языке. После этого вы можете задать программе вопрос, например: «Когда я последний раз получал сообщение из Франции?» или: «Как называется модель нового ноутбука, недавно анонсированная IBM?» Компьютер даст вам ответ при помощи этой базы данных.
      Это вовсе не научная фантастика. В 1991–1996 годах Агентство перспективных исследований американского Министерства обороны [US Department of Defense Advanced Research Project Agency, DARPA] спонсировало конкурс «Конференция по распознаванию сообщений» [Message Understanding Conference, MUC]. Целью конкурса было создание компьютерной программы, которая извлекала бы информацию из большого количества текстовых сообщений и облекала ее в машиночитаемую форму. В рамках MUC-6 участники написали программу, которая могла сканировать газетные статьи и искать в них информацию об изменениях среди руководящего персонала. Например, MUC-6 был предоставлен следующий текст:
      МсСаnn создал новую, так называемую глобальную систему сотрудничества, состоящую из всемирно известных финансовых директоров и творческих партнеров. Известно, что Питер Ким [Peter Kim] был приглашен в сентябре в WPP Group's & Walter Thompson на должность вице-президента, главного специалиста по стратегическому планированию.
      В результате получились следующие данные:
      «ОЧЕРЕДН_СОБЫТИЕ-940224 0133-3»:= ОЧЕРЕДН_ОРГ: «ОРГАНИЗАЦИЯ-94 022 4 0133-1» ПОСТ: «Вице-президент, главный специалист по стратегическому планированию»
      ВХ_И_ВЫХ: «ВХ__И_ВЫХ-9402240133-5» ПРИЧИНА_ВАКАНСИИ: ПРОЧ_НЕИЗВ
      КОММЕНТАРИЙ: «Ким стал вице-президентом… в МсСапп» «ВХ И ВЫХ-9402240133-5»:=
      ВХ/ВЫХ_ЛИЧНОСТЬ: «ЛИЧНОСТЬ-94 022 40 133-5»
      НОВЫЙ__СТАТУС: ВХ
      В_РАБОТЕ: ДА
      ПРОЧ_ОРГ: «ОРГ-9402240133-8»
      ОТН_ПРОЧ_ОРГ: ВНЕШН_ОРГ
      КОММЕНТАРИЙ: «Ким пришел из другой организации (должность не упомянута)» / «Точно известно, что сейчас он работает, назначен несколько месяцев назад»
      «ОРГАНИЗАЦИЯ-9402240133-1»:=
      ОРГ_НАЗ: «McCann-Erickson»
      ОРГ_ПСЕВДОН: «МсСапп»
      ОРГ ОПИСАН: «одно из крупнейших мировых агентств»
      ОРГ_ТИП: КОМПАНИЯ
      «ОРГ-9402240133-8»
      0РГ_НАЗ: «J. Walter Thompson»
      ОРГ_ТИП: КОМПАНИЯ
      «ЛИЧНОСТЬ-94 022 4 0133-5»
      ЛИЧН_ИМЯ: «Питер Ким»
      В конечном счете вы можете использовать такую программу для создания большой машиночитаемой базы данных из неструктурированной информации, типа сообщений электронной почты или газетных статей.
      Другая система была разработана в рамках проекта START в Лаборатории ИИ Массачусетского технологического института [MIT AI Lab]. В отличие от MUC, START была спроектирована, чтобы отвечать на вопросы, заданные на английском языке. Например, вы могли задать START вопрос:
      «WHAT DOES START STAND FOR? [Для чего предназначена START?]
      И получить ответ:
      START stands for the Syntactic Analysis Using Reversible Transformations.
      [START предназначена для синтаксического анализа с использованием обратимых преобразований.]
      Борис Кац [Boris Katz], научный сотрудник Лаборатории ИИ, дал программе прочитать информацию об институте и поместил ее на web-сервер Лаборатории. Любой человек мог задать программе типовой вопрос и получить адекватный ответ. Например, вы могли спросить: „Где находится Лаборатория ИИ?“ и получить ответ: „Лаборатория искусственного интеллекта Массачусетского технологического института находится в Кембридже. Почтовый адрес лаборатории – MIT AI Laboratory, 545, Technology Square, Cambridge, MA 02139“.
      Система также знала, как получить доступ к информации на других компьютерах в Интернете. Например, вы могли напечатать запрос:

  • Страницы:
    1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27