Connect with us

Hi, what are you looking for?

Наука и технологии

Представлен фреймворк, который может улучшить социальный интеллект домашних помощников

Представлен фреймворк, который может улучшить социальный интеллект домашних помощников
Представлен фреймворк, который может улучшить социальный интеллект домашних помощников

Существующие агенты и роботы искусственного интеллекта помогают людям только в том случае, если им это явно указано. Другими словами, они не определяют интуитивно, чем они могут быть полезны в данный момент, а скорее ждут, пока люди скажут им, в чем им нужна помощь.

Исследователи из Массачусетского технологического института (MIT) недавно разработали NOPA (вероятностную онлайн-помощь с нейронным управлением), структуру , которая может позволить искусственным агентам автономно определять, как лучше всего помочь пользователям- людям в разное время. Эта структура, представленная в документе, предварительно опубликованном на arXiv и должна быть представлена ​​на ICRA 2023, может позволить разработать роботов и домашних помощников, которые будут более отзывчивыми и социально интеллектуальными.

«Мы были заинтересованы в изучении агентов, которые могли бы помочь людям выполнять задачи в смоделированной домашней среде, чтобы в конечном итоге это могли быть роботы, помогающие людям в их домах», — сказал Tech Xplore Ксавьер Пуч, один из исследователей, проводивших исследование. «Чтобы достичь этого, один из больших вопросов заключается в том, как указать этим агентам, с какой задачей мы хотели бы, чтобы они нам помогли. Один из вариантов — указать эту задачу с помощью языкового описания или демонстрации, но это требует дополнительной работы со стороны пользователь-человек».

Главной целью недавней работы Пуига и его коллег было создание агентов на основе ИИ, которые могут одновременно делать выводы о том, какую задачу пытается решить пользователь-человек, и соответствующим образом помогать им. Они называют эту проблему «онлайн-наблюдением и помощью».

Надежно решить эту проблему может быть сложно. Основная причина этого заключается в том, что если робот слишком рано начнет помогать человеку, он может не понять, чего человек пытается достичь в целом, и поэтому его вклад в задачу может быть контрпродуктивным.

«Например, если пользователь-человек находится на кухне, робот может попытаться помочь ему убрать посуду в шкаф, в то время как человек хочет накрыть на стол», — пояснил Пуч. «Однако, если агент слишком долго ждет, чтобы понять, каковы намерения человека, для него может быть слишком поздно помогать. В случае, описанном выше, наша структура позволит роботу-агенту помогать человеку, передавая посуду, независимо от того, того, для чего эти блюда».

По сути, вместо того, чтобы предсказывать одну цель, которую пытается решить пользователь-человек, структура, созданная исследователями, позволяет агенту предсказывать ряд целей. Это, в свою очередь, позволяет роботу или помощнику с искусственным интеллектом помогать в соответствии с этими целями, не дожидаясь слишком долго, прежде чем вмешаться.

«Обычные домашние помощники, такие как Alexa, помогут только тогда, когда их об этом попросят», — сказал Tech Xplore Тяньминь Шу, другой исследователь, проводивший исследование. «Однако люди могут помогать друг другу более изощренными способами. Например, когда вы видите, как ваши партнеры возвращаются домой из продуктового магазина с тяжелыми сумками, вы можете напрямую помочь им с этими сумками. Если вы подождете, пока ваш партнер попросит вас помочь , то ваш партнер, вероятно, будет недоволен».

Около двух десятилетий назад исследователи из Института эволюционной антропологии им. Макса Планка показали, что врожденная склонность людей помогать нуждающимся развивается рано. В серии экспериментов дети в возрасте 18 месяцев могли точно угадывать простые намерения других и двигаться, чтобы помочь им достичь своих целей.

Используя свою структуру, Пуч, Шу и их коллеги хотели снабдить домашних помощников такими же «способностями помощи», позволяющими им автоматически делать выводы о том, что люди пытаются сделать, просто наблюдая за ними, а затем действовать соответствующим образом. Таким образом, людям больше не нужно будет постоянно давать инструкции роботам, и они смогут просто сосредоточиться на поставленной задаче.

«NOPA — это метод одновременного определения человеческих целей и оказания им помощи в их достижении», — объяснили Пуч и Шу. «Чтобы вывести цели, мы сначала используем нейронную сеть, которая предлагает несколько целей на основе того, что сделал человек. Затем мы оцениваем эти цели, используя тип метода рассуждений, называемый обратным планированием. Идея состоит в том, что для каждой цели мы можем представить каковы будут рациональные действия, предпринятые человеком для достижения этой цели; и если воображаемые действия несовместимы с наблюдаемыми действиями, мы отвергаем это предложение цели».

По сути, структура NOPA постоянно поддерживает набор возможных целей, которые может пытаться решить человек, постоянно обновляя этот набор по мере наблюдения новых действий человека. Затем в разные моменты времени планировщик-помощник ищет общую подцель, которая станет шагом вперед в решении всего текущего набора возможных целей. Наконец, он ищет конкретные действия, которые помогут решить эту подцель.

«Например, цели могут заключаться в том, чтобы положить яблоки в холодильник или положить яблоки на стол», — говорят Пуч и Шу. «Вместо того, чтобы случайным образом угадывать целевое местоположение и класть туда яблоки, наш ИИ-помощник собирал яблоки и доставлял их человеку. Таким образом, мы можем не испортить окружающую среду, помогая с неправильной целью, и при этом экономя время. и энергия для человека».

До сих пор Пуч, Шу и их коллеги оценивали свою структуру в смоделированной среде. Хотя они ожидали, что это позволит агентам помогать пользователям-людям, даже когда их цели были неясны, они не ожидали некоторых интересных моделей поведения, которые наблюдали в симуляциях.

«Во-первых, мы обнаружили, что агенты могут корректировать свое поведение, чтобы свести к минимуму беспорядки в доме», — объяснил Пуч. «Например, если они выбрали объект, а позже обнаружили, что этот объект не имеет отношения к задаче, они вернули объект на исходное место, чтобы поддерживать порядок в доме. Во-вторых, когда не были уверены в цели, агенты выбирали действия. которые в целом были полезны, независимо от цели человека, например, передать тарелку человеку вместо того, чтобы поставить ее на стол или в шкаф для хранения».

В моделировании структура, созданная Пуигом, Шу и их коллегами, дала очень многообещающие результаты. Даже если команда изначально настроила вспомогательных агентов для помощи моделям, представляющим пользователей-людей (чтобы сэкономить время и затраты на тестирование в реальных условиях), было обнаружено, что агенты достигают аналогичных результатов при взаимодействии с реальными людьми.

В будущем структура NOPA может помочь расширить возможности как существующих, так и недавно разработанных домашних помощников. Кроме того, потенциально это может вдохновить на создание аналогичных методов для создания более интуитивно понятного и социально адаптированного ИИ.

«До сих пор мы оценивали метод только в воплощенных симуляциях», — добавил Шу. «Теперь мы хотели бы применить этот метод к реальным роботам в реальных домах. Кроме того, мы хотели бы включить в структуру вербальное общение , чтобы помощник ИИ мог лучше помогать людям».

 

Теги: ИИ

В тренде