Разговаривая с руководителями розничной торговли еще в 2010 году, Рама Рамакришнан пришел к двум выводам. Во-первых, хотя системы розничной торговли, предлагающие клиентам персонализированные рекомендации, привлекали большое внимание, эти системы часто приносили мало пользы ритейлерам. Во-вторых, большинство клиентов многих фирм совершали покупки только один или два раза в год, поэтому компании мало что о них знали.
«Но, очень внимательно записывая взаимодействие покупателя с розничным продавцом или сайтом электронной коммерции, мы можем создать очень красивую и подробную картину того, что этот человек делает и что его волнует», — говорит Рамакришнан, профессор. практики в Школе менеджмента Слоана Массачусетского технологического института. «Как только это у вас появится, вы сможете применять проверенные алгоритмы машинного обучения».
Эти открытия привели Рамакришнана к основанию CQuotient, стартапа, программное обеспечение которого теперь стало основой широко распространенной платформы электронной коммерции с искусственным интеллектом Salesforce. «Только в Черную пятницу технология CQuotient, вероятно, видит и взаимодействует с более чем миллиардом покупателей за один день», — говорит он.
После весьма успешной предпринимательской карьеры в 2019 году Рамакришнан вернулся в MIT Sloan, где в 1990-х годах получил степени магистра и доктора наук в области исследования операций. Он учит студентов «не только тому, как работают эти удивительные технологии, но и тому, как их использовать и практически применять в реальном мире», — говорит он.
Кроме того, Рамакришнану нравится участвовать в программе обучения руководителей MIT. «Для меня это прекрасная возможность передать то, чему я научился, но, что не менее важно, узнать, что на уме у этих старших руководителей, а также направить их и подтолкнуть в правильном направлении», — говорит он.
Например, руководители по понятным причинам обеспокоены необходимостью огромных объемов данных для обучения систем машинного обучения. Теперь он может направить их к множеству моделей, предварительно подготовленных для выполнения конкретных задач. «Возможность использовать эти предварительно обученные модели ИИ и очень быстро адаптировать их к конкретной бизнес-задаче — это невероятный прогресс», — говорит Рамакришнан.
Рама Рамакришнан – Использование искусственного интеллекта в реальных приложениях для интеллектуальной работы
Видео: Программа промышленных связей Массачусетского технологического института
Понимание категорий ИИ
«ИИ — это попытка наделить компьютеры способностью выполнять когнитивные задачи, которые обычно могут выполнять только люди», — говорит он. Понимание истории этого сложного и насыщенного ландшафта помогает использовать эти технологии.
Традиционный подход к ИИ, который в основном решал проблемы, применяя правила «если/то», полученные от людей, оказался полезным для относительно небольшого числа задач. «Одна из причин заключается в том, что мы можем делать многие вещи без особых усилий, но если нас просят объяснить, как мы это делаем, мы не можем на самом деле сформулировать, как мы это делаем», — комментирует Рамакришнан. Кроме того, эти системы могут быть сбиты с толку новыми ситуациями, которые не соответствуют правилам, заложенным в программном обеспечении.
Машинное обучение использует совершенно другой подход: программное обеспечение в основном обучается на примерах. «Вы даете ему множество примеров входных и выходных данных, вопросов и ответов, задач и ответов и заставляете компьютер автоматически учиться переходить от входных данных к выходным», — говорит он. Кредитный скоринг, принятие решений по кредиту, прогнозирование заболеваний и прогнозирование спроса — одни из многих задач, решаемых машинным обучением.
Но машинное обучение работало хорошо только тогда, когда входные данные были структурированы, например, в электронной таблице. «Если входные данные были неструктурированными, например, изображения, видео, аудио, ЭКГ или рентгеновские снимки, переход от них к прогнозируемому результату был не очень хорош», — говорит Рамакришнан. Это означает, что людям приходилось вручную структурировать неструктурированные данные для обучения системы.
По его словам, примерно в 2010 году глубокое обучение начало преодолевать это ограничение, предоставляя возможность напрямую работать с неструктурированными входными данными. Основанное на давней стратегии искусственного интеллекта, известной как нейронные сети, глубокое обучение стало практичным благодаря глобальному потоку данных, доступности чрезвычайно мощного оборудования для параллельной обработки, называемого графическими процессорами (первоначально изобретенными для видеоигр), а также достижениям в области алгоритмов и математики.
Наконец, в рамках глубокого обучения пакеты программного обеспечения для генеративного искусственного интеллекта, появившиеся в прошлом году, могут создавать неструктурированные результаты, такие как текст, похожий на человеческий, изображения собак и трехмерные модели. Большие языковые модели (LLM), такие как ChatGPT OpenAI, переходят от текстового ввода к текстовому выводу, в то время как модели преобразования текста в изображение, такие как DALL-E OpenAI, могут создавать реалистичные изображения.
Рама Рамакришнан – Принятие к сведению небольших данных для улучшения обслуживания клиентов
Видео: Программа промышленных связей Массачусетского технологического института
Что может (и не может) делать генеративный ИИ
Обученный на невообразимо обширных текстовых ресурсах Интернета, LLM «основная способность состоит в том, чтобы предсказать следующее наиболее вероятное и правдоподобное слово», говорит Рамакришнан. «Затем он присоединяет слово к исходному предложению, снова предсказывает следующее слово и продолжает это делать».
«К удивлению многих, в том числе многих исследователей, степень магистра права может делать очень сложные вещи», — говорит он. «Он может сочинять красивые связные стихи, писать эпизоды «Сайнфельда» и решать некоторые виды логических задач. Действительно удивительно, как предсказание следующего слова может привести к таким удивительным возможностям».
«Но вы всегда должны помнить, что он занимается не столько поиском правильного ответа на ваш вопрос, сколько поиском правдоподобного ответа на ваш вопрос», — подчеркивает Рамакришнан. Его содержание может быть неточным, нерелевантным, токсичным, предвзятым или оскорбительным.
Это возлагает на пользователей ответственность за то, чтобы выходные данные были правильными, актуальными и полезными для поставленной задачи. «Вы должны убедиться, что у вас есть какой-то способ проверить выходные данные на наличие ошибок и исправить их до того, как они исчезнут», — говорит он.
В настоящее время проводятся интенсивные исследования с целью найти методы устранения этих недостатков, добавляет Рамакришнан, который ожидает, что для этого будет создано множество инновационных инструментов.
Поиск подходящих корпоративных ролей для LLM
Учитывая поразительный прогресс в области LLM, как отрасли следует думать о применении программного обеспечения для решения таких задач, как создание контента?
Во-первых, советует Рамакришнан, подумайте о затратах: «Намного ли дешевле иметь черновик, который вы исправляете, чем создавать все целиком?» Во-вторых, если LLM совершит ошибку, которая ускользнет от внимания и ошибочный контент будет опубликован во внешнем мире, сможете ли вы смириться с последствиями?
«Если у вас есть приложение, которое удовлетворяет обоим требованиям, хорошо бы провести пилотный проект и посмотреть, смогут ли эти технологии действительно помочь вам в решении этой конкретной задачи», — говорит Рамакришнан. Он подчеркивает необходимость относиться к пилотному проекту как к эксперименту, а не как к обычному ИТ-проекту.
На данный момент разработка программного обеспечения является наиболее зрелым корпоративным приложением LLM. «ChatGPT и другие LLM — это ввод и вывод текста, а программное обеспечение — это просто вывод текста», — говорит он. «Программисты могут перейти от ввода текста на английском языке к выводу текста на Python, а вы можете перейти с английского на английский или с английского на немецкий. Существует множество инструментов, которые помогут вам писать код с использованием этих технологий».
Конечно, программисты должны убедиться, что результат правильно выполняет свою работу. К счастью, разработка программного обеспечения уже предлагает инфраструктуру для тестирования и проверки кода. «Это прекрасное место», — говорит он, — «где гораздо дешевле заставить технологию писать код за вас, потому что вы можете очень быстро его проверить и подтвердить».
Еще одним важным применением LLM является создание контента, например, написание маркетинговых текстов или описаний продуктов для электронной коммерции. «Опять же, исправить черновик ChatGPT может быть гораздо дешевле, чем писать вам все целиком», — говорит Рамакришнан. «Однако компании должны быть очень осторожны, чтобы убедиться, что в процессе есть человек».
LLM также быстро распространяется как внутренние инструменты для поиска корпоративных документов. В отличие от традиционных алгоритмов поиска, чат-бот LLM может предлагать диалоговый поиск, поскольку он запоминает каждый заданный вами вопрос. «Но опять же, иногда это все компенсирует», — говорит он. «Что касается чат-ботов для внешних клиентов, это очень первые дни из-за риска сказать клиенту что-то не то».
В целом, отмечает Рамакришнан, мы живем в замечательное время, когда нужно бороться с быстро развивающимися возможностями и ловушками ИИ. «Я помогаю компаниям понять, как использовать эти преобразующие технологии и заставить их работать, чтобы сделать продукты и услуги намного более интеллектуальными, сотрудников — более продуктивными, а процессы — более эффективными», — говорит он.