ИИ — это не приложение, это пользовательский интерфейс
Реалистичное понимание генеративного ИИ может привести нас к его идеальному варианту использования: не лицо, принимающее решения, или неконтролируемый агент, спрятанный от конечного пользователя, а интерфейс между людьми и машинами.
Большие языковые модели (LLM) кажутся волшебством. Впервые мы можем общаться с компьютерной программой на естественном языке и получать связный, персонализированный ответ. То же самое и с моделями генеративного искусства, такими как Stable Diffusion, которые могут создавать правдоподобное искусство из самых простых подсказок. Компьютеры начинают вести себя не как инструменты, а как пиры.
Ажиотаж вокруг этих достижений был сильным. Однако мы должны отдать должное скептикам: люди легко увлекаются научной фантастикой. Мы верим, что летающие автомобили, телепортация и роботы-дворецкие уже не за горами уже несколько десятилетий, и законы физики нас не обескураживают. Неудивительно, что люди представляют генеративный ИИ как начало славного научно-фантастического будущего, делая человеческий труд устаревшим и перенося нас в эпоху «Звездного пути».
В некотором смысле пыл вокруг ИИ напоминает ажиотаж вокруг блокчейна, который неуклонно остывает после своего пика в 2021 году. Почти во всех случаях технология блокчейна не служит никакой цели, кроме как сделать программное обеспечение более медленным, трудным для исправления и более крупной мишенью для мошенников. ИИ далеко не так легкомыслен — у него есть несколько новых вариантов использования, — но многие справедливо настороженно относятся к сходству. И есть проблемы, которые нужно иметь; ИИ имеет обманчивую видимость бесплатного обеда и, как и ожидалось, имеет неочевидные недостатки, которые некоторые основатели и венчурные капиталисты будут настаивать на изучении на собственном горьком опыте.
Отложив в сторону научную фантастику и предположения о следующем поколении LLM, реалистичное понимание генеративного ИИ может привести нас к его идеальному варианту использования: не лицо, принимающее решения, или неконтролируемый агент, спрятанный от конечного пользователя, а интерфейс между людьми и машинами. — механизм доставки наших намерений традиционным алгоритмическим API.
Таким образом, несмотря на то, что LLM использует технологию, аналогичную «полосе предложений» над клавиатурой вашего смартфона, и часто описывается как механизм прогнозирования, это не самая полезная терминология. Он отражает большую часть своей сути, чтобы сказать, что это имитационная машина. Отсканировав миллиарды страниц текста, написанного людьми, он знает, что человек может сказать в ответ на что-то. Даже если он никогда раньше не видел точной комбинации слов, он знает, что некоторые слова с большей или меньшей вероятностью встречаются рядом друг с другом, а некоторые слова в предложении легко заменяются другими. Это масштабная статистическая модель языковых привычек.
Такое понимание генеративного ИИ объясняет, почему он изо всех сил пытается решить основные математические задачи, пытается добавить хрена в пирожные и легко втягивается в споры о текущей дате. Под капотом нет ни мыслей, ни понимания, только наше собственное бормотание, отражающееся в нас — знаменитый аргумент китайской комнаты здесь верен.
Если бы LLM лучше цитировали свои источники, мы могли бы проследить каждую их маленькую оплошность до тысячи навязчиво похожих строк в онлайн-курсах по математике, в блогах с рецептами или на Reddit. Это принтеры шаблонов. И все же каким-то образом их модель языка достаточно хороша, чтобы в большинстве случаев давать нам то, что мы хотим. Как замена людям, они терпят неудачу. Но как заменить, скажем, интерфейс командной строки? Это значительное улучшение. Люди естественным образом не общаются, набирая команды из заранее определенного списка. Ближе всего к нашим желаниям и намерениям находится речь, и ИИ изучил структуру речи.
Искусство тоже умеренно стохастично. Некоторые рисунки действительно случайны, но большинство из них следует узнаваемой грамматике линий и цветов. Если что-то можно свести к шаблонам, какими бы сложными они ни были, ИИ, вероятно, сможет это имитировать. Это то, что делает ИИ. Вот и вся история.
Это означает, что ИИ, хотя и не совсем панацея, как его рекламируют, далеко не бесполезен. Было бы непостижимо трудно имитировать такую сложную систему, как язык или искусство, используя стандартное алгоритмическое программирование. Полученное приложение, вероятно, также будет медленнее и даже менее последовательным в незнакомых ситуациях. В гонках ИИ может победить, второго места не бывает.
Научиться определять эти расы становится важным техническим навыком, и это сложнее, чем кажется. Готовая модель ИИ может выполнять широкий спектр задач быстрее, чем человек. Но если его использовать для решения неправильных проблем, его решения быстро окажутся хрупкими и даже опасными.
Одним из основных ограничений компьютеров является то, что ими управляют люди. Мы непредсказуемы и, конечно же, не масштабируемся. Требуются значительные усилия, чтобы преобразовать наши намерения во что-то безопасное, ограниченное и предсказуемое.
У ИИ совершенно другой набор проблем, которые зачастую сложнее решить. Он масштабируется, но не предсказуем. Помните, что способность имитировать непредсказуемую систему — это ее ценностное предложение?
Если вам нужно, чтобы традиционная компьютерная программа следовала какому-то правилу, например регламенту конфиденциальности или безопасности, вы можете написать код со строгими гарантиями, а затем доказать (иногда даже с помощью формальной логики), что это правило не будет нарушено. Хотя программисты-люди несовершенны, они могут представить себе идеальное соблюдение правила и использовать различные инструменты для его реализации с высокой вероятностью успеха.
AI не предлагает такой возможности. Ограничения могут быть применены к нему только одним из двух способов: с помощью другого уровня ИИ (который представляет собой немногим больше, чем предложение) или путем обработки вывода через алгоритмический код, которого по своей природе недостаточно для разнообразия вывода, который ИИ может получить. производить. В любом случае стохастическая модель ИИ гарантирует ненулевую вероятность нарушения правила. ИИ — это зеркало; единственное, чего он не может сделать, это то, чего он никогда не видел.
Большую часть времени мы как программисты тратим на человеческие проблемы. Мы работаем, исходя из предположения, что компьютеры не делают ошибок. Это ожидание теоретически необоснованно — технически космический луч может вызвать сбой без участия человека, — но в масштабе одной команды, работающей над одним приложением, оно всегда правильно. Мы исправляем ошибки, находя ошибки, которые мы сделали на этом пути. Программирование — это упражнение в самокоррекции.
Итак, что мы делаем, когда у ИИ есть ошибка?
Это сложный вопрос. «Ошибка», вероятно, не является правильным термином для плохого поведения, такого как попытка разрушить брак клиента или шантажировать его. Баг — это неточность, записанная в коде. Плохое поведение ИИ чаще всего является точным отражением его тренировочного набора. Как бы нам ни хотелось обвинить ИИ или компанию, которая его создала, вина лежит на данных — в случае LLM, данных, созданных миллиардами людей и общедоступных в Интернете. Он делает то, что делаем мы. Это легко поддается дезинформации, потому что мы тоже; любит вступать в споры, потому что мы тоже; и делает возмутительные угрозы, потому что мы тоже. Он был настроен и перенастроен, чтобы подражать нашему лучшему поведению, но его набор данных огромен, а скелетов в шкафу больше, чем несколько. И каждая попытка запихнуть его в маленькую, социально приемлемую коробку, кажется, направлена против его врожденной полезности. Мы не можем решить, хотим ли мы, чтобы он вел себя как человек или нет.
В любом случае, исправление «ошибок» в ИИ — дело неопределенное. Вы можете настроить параметры статистической модели, добавить или удалить обучающие данные или пометить определенные выходные данные как «хорошие» или «плохие» и запустить их обратно в модель. Но вы никогда не сможете с уверенностью сказать «вот проблема, а вот и решение». В пудинге нет доказательств. Все, что вы можете сделать, это протестировать модель и надеяться, что она будет вести себя так же перед покупателями.
Неограниченность ИИ является фундаментальным принципом для оценки границы между хорошими и плохими вариантами использования. Когда мы рассматриваем возможность применения какой-либо модели ИИ к какой-либо проблеме, мы должны задаться вопросом: существуют ли какие-либо непреложные правила или положения, которым необходимо следовать? Недопустимо ли, чтобы модель время от времени делала противоположное тому, что мы ожидаем? Работает ли модель на уровне, где человеку будет трудно проверить ее вывод? Если ответ на любой из этих вопросов «да», ИИ представляет собой высокий риск.
Лучшим местом для ИИ является контекст, в котором его выбор ограничен, прозрачен и безопасен. Мы должны дать ему API, а не поле вывода. На первый взгляд, это не так увлекательно, как приложения «виртуальный робот-помощник» или «агент обслуживания клиентов с нулевой стоимостью», которые многие себе представляли. Но он силен и в другом отношении — в том, что может произвести революцию в самых фундаментальных взаимодействиях между людьми и компьютерами.
На самом деле, трудно представить случай, когда мы хотим, чтобы наше программное обеспечение вело себя непредсказуемо. Мы спокойно относимся к компьютерам в карманах и под капотами машин, потому что верим (иногда ошибочно), что они делают только то, что мы им приказываем. У нас очень узкие представления о том, что произойдет, когда мы нажмем и прокрутим. Даже при взаимодействии с моделью ИИ нам нравится обманываться, думая, что ее результаты предсказуемы; ИИ проявляет себя лучше всего, когда он выглядит как алгоритм. Этой чертой обладают хорошие модели преобразования речи в текст, наряду с программами языкового перевода и экранными клавиатурами. В каждом из этих случаев мы хотим, чтобы нас поняли, а не удивили. Таким образом, ИИ лучше всего подходит в качестве связующего слоя между людьми, которые неисправимо хаотичны, и традиционным программным обеспечением, которое является детерминированным.
Брендовые и юридические последствия последовали и будут продолжаться для компаний, которые слишком торопятся поставлять продукты ИИ клиентам. Плохие актеры, PR-катастрофы в Интернете и строгие правила — неизбежные части корпоративного ландшафта, и ИИ плохо приспособлен для решения любой из них. Это дикая карта, которую многие компании узнают, что они не могут позволить себе работать с ней.
Мы не должны этому удивляться. Все технологии имеют компромиссы.
Типичный ответ на критику ИИ: «А что будет через несколько лет?» Существует широко распространенное мнение, что нынешние недостатки ИИ, такие как ошибки в программном обеспечении, — это просто ошибки в программировании, которые можно устранить с помощью обновления программного обеспечения. Но его самые большие ограничения являются внутренними. Сила ИИ также является его слабостью. Его ограничений мало, а возможностей много — и к лучшему, и к худшему.
Стартапы, которые выйдут на вершину волны ажиотажа вокруг ИИ, будут теми, кто понимает место генеративного ИИ в мире: не просто кошачья мята для венчурных капиталистов и первых последователей, не дешевая замена с полным спектром услуг людям-писателям и художникам, и, конечно же, не кратчайший путь к критически важному коду, но кое-что еще более интересное: адаптивный интерфейс между хаотичными реальными проблемами и безопасными, хорошо продуманными техническими решениями. ИИ может не понимать нас по-настоящему, но он может передать наши намерения API с достаточной точностью и описать результаты так, как мы их понимаем.
Это новый вид пользовательского интерфейса.
У этого пользовательского интерфейса, как и у любого другого, есть свои плюсы и минусы. Некоторые приложения всегда будут лучше с кнопками и формами, для которых ежедневные пользователи могут развивать мышечную память и взаимодействовать на высоких скоростях. Но для стартапов на ранних стадиях, приложений для нерегулярного использования и очень сложных бизнес-инструментов ИИ может позволить нам быстрее поставлять, быстрее выполнять итерации и удовлетворять более разнообразные потребности клиентов.
Мы никогда не сможем полностью доверять ИИ — урок, который мы будем извлекать снова и снова в предстоящие годы, — но мы, безусловно, можем использовать его с пользой. Все чаще и чаще мы обнаруживаем, что он играет посредника между негибкостью компьютерной системы и анархией органической. Если это означает, что мы можем приветствовать компьютеры в нашей жизни, не отказываясь от того, что делает нас людьми, тем лучше.
Текст с английского языка для русскоязычного сегмента Интернет перевел автор.
Большие языковые модели (LLM) кажутся волшебством. Впервые мы можем общаться с компьютерной программой на естественном языке и получать связный, персонализированный ответ. То же самое и с моделями генеративного искусства, такими как Stable Diffusion, которые могут создавать правдоподобное искусство из самых простых подсказок. Компьютеры начинают вести себя не как инструменты, а как пиры.
Ажиотаж вокруг этих достижений был сильным. Однако мы должны отдать должное скептикам: люди легко увлекаются научной фантастикой. Мы верим, что летающие автомобили, телепортация и роботы-дворецкие уже не за горами уже несколько десятилетий, и законы физики нас не обескураживают. Неудивительно, что люди представляют генеративный ИИ как начало славного научно-фантастического будущего, делая человеческий труд устаревшим и перенося нас в эпоху «Звездного пути».
В некотором смысле пыл вокруг ИИ напоминает ажиотаж вокруг блокчейна, который неуклонно остывает после своего пика в 2021 году. Почти во всех случаях технология блокчейна не служит никакой цели, кроме как сделать программное обеспечение более медленным, трудным для исправления и более крупной мишенью для мошенников. ИИ далеко не так легкомыслен — у него есть несколько новых вариантов использования, — но многие справедливо настороженно относятся к сходству. И есть проблемы, которые нужно иметь; ИИ имеет обманчивую видимость бесплатного обеда и, как и ожидалось, имеет неочевидные недостатки, которые некоторые основатели и венчурные капиталисты будут настаивать на изучении на собственном горьком опыте.
Отложив в сторону научную фантастику и предположения о следующем поколении LLM, реалистичное понимание генеративного ИИ может привести нас к его идеальному варианту использования: не лицо, принимающее решения, или неконтролируемый агент, спрятанный от конечного пользователя, а интерфейс между людьми и машинами. — механизм доставки наших намерений традиционным алгоритмическим API.
ИИ — это принтер шаблонов
ИИ в его нынешнем состоянии очень хорош в одном: в моделировании и имитации стохастической системы. Стохастик относится к чему-то случайному, что мы можем описать, но не предсказать. Человеческий язык умеренно стохастический. Когда мы говорим или пишем, мы на самом деле не выбираем слова наугад — в этом есть метод, и иногда мы можем закончить предложения друг друга. Но в целом невозможно точно предсказать, что кто-то скажет дальше.Таким образом, несмотря на то, что LLM использует технологию, аналогичную «полосе предложений» над клавиатурой вашего смартфона, и часто описывается как механизм прогнозирования, это не самая полезная терминология. Он отражает большую часть своей сути, чтобы сказать, что это имитационная машина. Отсканировав миллиарды страниц текста, написанного людьми, он знает, что человек может сказать в ответ на что-то. Даже если он никогда раньше не видел точной комбинации слов, он знает, что некоторые слова с большей или меньшей вероятностью встречаются рядом друг с другом, а некоторые слова в предложении легко заменяются другими. Это масштабная статистическая модель языковых привычек.
Такое понимание генеративного ИИ объясняет, почему он изо всех сил пытается решить основные математические задачи, пытается добавить хрена в пирожные и легко втягивается в споры о текущей дате. Под капотом нет ни мыслей, ни понимания, только наше собственное бормотание, отражающееся в нас — знаменитый аргумент китайской комнаты здесь верен.
Если бы LLM лучше цитировали свои источники, мы могли бы проследить каждую их маленькую оплошность до тысячи навязчиво похожих строк в онлайн-курсах по математике, в блогах с рецептами или на Reddit. Это принтеры шаблонов. И все же каким-то образом их модель языка достаточно хороша, чтобы в большинстве случаев давать нам то, что мы хотим. Как замена людям, они терпят неудачу. Но как заменить, скажем, интерфейс командной строки? Это значительное улучшение. Люди естественным образом не общаются, набирая команды из заранее определенного списка. Ближе всего к нашим желаниям и намерениям находится речь, и ИИ изучил структуру речи.
Искусство тоже умеренно стохастично. Некоторые рисунки действительно случайны, но большинство из них следует узнаваемой грамматике линий и цветов. Если что-то можно свести к шаблонам, какими бы сложными они ни были, ИИ, вероятно, сможет это имитировать. Это то, что делает ИИ. Вот и вся история.
Это означает, что ИИ, хотя и не совсем панацея, как его рекламируют, далеко не бесполезен. Было бы непостижимо трудно имитировать такую сложную систему, как язык или искусство, используя стандартное алгоритмическое программирование. Полученное приложение, вероятно, также будет медленнее и даже менее последовательным в незнакомых ситуациях. В гонках ИИ может победить, второго места не бывает.
Научиться определять эти расы становится важным техническим навыком, и это сложнее, чем кажется. Готовая модель ИИ может выполнять широкий спектр задач быстрее, чем человек. Но если его использовать для решения неправильных проблем, его решения быстро окажутся хрупкими и даже опасными.
ИИ не может следовать правилам
Все достижения человечества в области информатики были достигнуты благодаря двум технологическим чудесам: предсказуемости и масштабу. Компьютеры нас не удивляют. (Иногда мы сами удивляемся, когда программируем их, но это наша собственная вина.) Они делают одно и то же снова и снова, миллиарды раз в секунду, никогда не меняя своего решения. И все предсказуемое и воспроизводимое, даже такое малое, как ток, протекающий через транзистор, может быть сложено и встроено в сложную систему.Одним из основных ограничений компьютеров является то, что ими управляют люди. Мы непредсказуемы и, конечно же, не масштабируемся. Требуются значительные усилия, чтобы преобразовать наши намерения во что-то безопасное, ограниченное и предсказуемое.
У ИИ совершенно другой набор проблем, которые зачастую сложнее решить. Он масштабируется, но не предсказуем. Помните, что способность имитировать непредсказуемую систему — это ее ценностное предложение?
Если вам нужно, чтобы традиционная компьютерная программа следовала какому-то правилу, например регламенту конфиденциальности или безопасности, вы можете написать код со строгими гарантиями, а затем доказать (иногда даже с помощью формальной логики), что это правило не будет нарушено. Хотя программисты-люди несовершенны, они могут представить себе идеальное соблюдение правила и использовать различные инструменты для его реализации с высокой вероятностью успеха.
AI не предлагает такой возможности. Ограничения могут быть применены к нему только одним из двух способов: с помощью другого уровня ИИ (который представляет собой немногим больше, чем предложение) или путем обработки вывода через алгоритмический код, которого по своей природе недостаточно для разнообразия вывода, который ИИ может получить. производить. В любом случае стохастическая модель ИИ гарантирует ненулевую вероятность нарушения правила. ИИ — это зеркало; единственное, чего он не может сделать, это то, чего он никогда не видел.
Большую часть времени мы как программисты тратим на человеческие проблемы. Мы работаем, исходя из предположения, что компьютеры не делают ошибок. Это ожидание теоретически необоснованно — технически космический луч может вызвать сбой без участия человека, — но в масштабе одной команды, работающей над одним приложением, оно всегда правильно. Мы исправляем ошибки, находя ошибки, которые мы сделали на этом пути. Программирование — это упражнение в самокоррекции.
Итак, что мы делаем, когда у ИИ есть ошибка?
Это сложный вопрос. «Ошибка», вероятно, не является правильным термином для плохого поведения, такого как попытка разрушить брак клиента или шантажировать его. Баг — это неточность, записанная в коде. Плохое поведение ИИ чаще всего является точным отражением его тренировочного набора. Как бы нам ни хотелось обвинить ИИ или компанию, которая его создала, вина лежит на данных — в случае LLM, данных, созданных миллиардами людей и общедоступных в Интернете. Он делает то, что делаем мы. Это легко поддается дезинформации, потому что мы тоже; любит вступать в споры, потому что мы тоже; и делает возмутительные угрозы, потому что мы тоже. Он был настроен и перенастроен, чтобы подражать нашему лучшему поведению, но его набор данных огромен, а скелетов в шкафу больше, чем несколько. И каждая попытка запихнуть его в маленькую, социально приемлемую коробку, кажется, направлена против его врожденной полезности. Мы не можем решить, хотим ли мы, чтобы он вел себя как человек или нет.
В любом случае, исправление «ошибок» в ИИ — дело неопределенное. Вы можете настроить параметры статистической модели, добавить или удалить обучающие данные или пометить определенные выходные данные как «хорошие» или «плохие» и запустить их обратно в модель. Но вы никогда не сможете с уверенностью сказать «вот проблема, а вот и решение». В пудинге нет доказательств. Все, что вы можете сделать, это протестировать модель и надеяться, что она будет вести себя так же перед покупателями.
Неограниченность ИИ является фундаментальным принципом для оценки границы между хорошими и плохими вариантами использования. Когда мы рассматриваем возможность применения какой-либо модели ИИ к какой-либо проблеме, мы должны задаться вопросом: существуют ли какие-либо непреложные правила или положения, которым необходимо следовать? Недопустимо ли, чтобы модель время от времени делала противоположное тому, что мы ожидаем? Работает ли модель на уровне, где человеку будет трудно проверить ее вывод? Если ответ на любой из этих вопросов «да», ИИ представляет собой высокий риск.
Лучшим местом для ИИ является контекст, в котором его выбор ограничен, прозрачен и безопасен. Мы должны дать ему API, а не поле вывода. На первый взгляд, это не так увлекательно, как приложения «виртуальный робот-помощник» или «агент обслуживания клиентов с нулевой стоимостью», которые многие себе представляли. Но он силен и в другом отношении — в том, что может произвести революцию в самых фундаментальных взаимодействиях между людьми и компьютерами.
Время и место для ИИ
Даже если бы он всегда вел себя хорошо, ИИ не подходил бы для всего. Большинство вещей, которые мы хотим, чтобы компьютеры делали, можно представить в виде набора правил. Например, я не хочу никакого вероятностного моделирования или стохастического шума между моей клавиатурой и текстовым процессором. Я хочу быть уверен, что ввод «К» всегда будет отображать «К» на экране. И если это не так, я хочу знать, что кто-то может написать обновление программного обеспечения, которое исправит это детерминировано, а не просто вероятно.На самом деле, трудно представить случай, когда мы хотим, чтобы наше программное обеспечение вело себя непредсказуемо. Мы спокойно относимся к компьютерам в карманах и под капотами машин, потому что верим (иногда ошибочно), что они делают только то, что мы им приказываем. У нас очень узкие представления о том, что произойдет, когда мы нажмем и прокрутим. Даже при взаимодействии с моделью ИИ нам нравится обманываться, думая, что ее результаты предсказуемы; ИИ проявляет себя лучше всего, когда он выглядит как алгоритм. Этой чертой обладают хорошие модели преобразования речи в текст, наряду с программами языкового перевода и экранными клавиатурами. В каждом из этих случаев мы хотим, чтобы нас поняли, а не удивили. Таким образом, ИИ лучше всего подходит в качестве связующего слоя между людьми, которые неисправимо хаотичны, и традиционным программным обеспечением, которое является детерминированным.
Брендовые и юридические последствия последовали и будут продолжаться для компаний, которые слишком торопятся поставлять продукты ИИ клиентам. Плохие актеры, PR-катастрофы в Интернете и строгие правила — неизбежные части корпоративного ландшафта, и ИИ плохо приспособлен для решения любой из них. Это дикая карта, которую многие компании узнают, что они не могут позволить себе работать с ней.
Мы не должны этому удивляться. Все технологии имеют компромиссы.
Типичный ответ на критику ИИ: «А что будет через несколько лет?» Существует широко распространенное мнение, что нынешние недостатки ИИ, такие как ошибки в программном обеспечении, — это просто ошибки в программировании, которые можно устранить с помощью обновления программного обеспечения. Но его самые большие ограничения являются внутренними. Сила ИИ также является его слабостью. Его ограничений мало, а возможностей много — и к лучшему, и к худшему.
Стартапы, которые выйдут на вершину волны ажиотажа вокруг ИИ, будут теми, кто понимает место генеративного ИИ в мире: не просто кошачья мята для венчурных капиталистов и первых последователей, не дешевая замена с полным спектром услуг людям-писателям и художникам, и, конечно же, не кратчайший путь к критически важному коду, но кое-что еще более интересное: адаптивный интерфейс между хаотичными реальными проблемами и безопасными, хорошо продуманными техническими решениями. ИИ может не понимать нас по-настоящему, но он может передать наши намерения API с достаточной точностью и описать результаты так, как мы их понимаем.
Это новый вид пользовательского интерфейса.
У этого пользовательского интерфейса, как и у любого другого, есть свои плюсы и минусы. Некоторые приложения всегда будут лучше с кнопками и формами, для которых ежедневные пользователи могут развивать мышечную память и взаимодействовать на высоких скоростях. Но для стартапов на ранних стадиях, приложений для нерегулярного использования и очень сложных бизнес-инструментов ИИ может позволить нам быстрее поставлять, быстрее выполнять итерации и удовлетворять более разнообразные потребности клиентов.
Мы никогда не сможем полностью доверять ИИ — урок, который мы будем извлекать снова и снова в предстоящие годы, — но мы, безусловно, можем использовать его с пользой. Все чаще и чаще мы обнаруживаем, что он играет посредника между негибкостью компьютерной системы и анархией органической. Если это означает, что мы можем приветствовать компьютеры в нашей жизни, не отказываясь от того, что делает нас людьми, тем лучше.
Текст с английского языка для русскоязычного сегмента Интернет перевел автор.
Похожие публикации
Нет комментариев