,微软研究院近日展示了 project rumi 项目,结合文本,音频和视频数据,通过多模方法,提高人工智能系统的理解能力,从而更能理解人类的意图。
人工智能系统近年来取得了长足的进步,尤其在自然语言处理领域的成长更为惊人。不过现有 nlp ai 主要依赖于文本输入输出,忽略了人类在自然交流中的语调,面部表情,手势和肢体语言等线索,从而在理解方面会存在偏差。
在 ai 专业术语中,这些线索统称为副语言。
微软研究院为了解决这个问题,开发了 project rumi,这是一个新颖的框架,旨在通过多模态副语言提示来增强人工智能的理解。该项目包括两个主要部分:多模式副语言编码器和多模式副语言解码器。it之家在此附上视频如下: