虚拟主播上线:多模态将改变人机交互的未来 朴灿烈づ我的快乐病毒、 2022-02-22 03:48 368阅读 0赞 > 现在,看在线视频已经成为很多人的一种生活习惯,人们乐于在忙完一天的工作和家庭生活后抽空看视频放松娱乐一下。然而,由于在线视频平台众多,视频资源丰富,现在的观众们已不满足于视频本身好不好看和视频资源的丰富度了,他们还希望拥有更好的观看体验。 > > 因此,视频平台如果能够提高观众的观看体验,自然能够吸引更多观众。爱奇艺便是众多试图利用技术改善用户服务和体验的在线视频平台之一,他们采用的一项技术,就是今天这篇文章的主题——多模态技术。视频中最重要的信息,包括音频信息和视频帧信息,单独利用某一个模态的信息,会比较局限,难以全面的对视频内容进行理解,而多模态能够综合多模态信息,让视频服务和功能更贴近人类真实生活习惯,对于视频内容理解非常必要。 2016年,爱奇艺在世界竞赛emotioW视频人脸表情识别国际竞赛中,综合利用人脸和音频的多模态信息获得比赛第一名,在这一契机下,爱奇艺从此开始进行多模态方面更加深入的研究。 ## 发布全球最大明星数据集iQIYI-VID ## 为了促进多模态技术研发,爱奇艺在2018年举办了爱奇艺多模态视频人物识别挑战赛,发布了当时全球首个最大明星数据集(iQIYI-VID)。目前,2019年爱奇艺视频人物识别挑战赛已经启动,3月18日爱奇艺开源了最接近实际媒体应用场景的视频人物数据集(iQIYI-VID-2019)。与2018年的数据集相比,这个数据集更具有挑战性,总共包含10000个明星人物、200个小时、20万影视剧与短视频人物数据集,全部采用人工标注。相对于iQIYI-VID,iQIYI-VID-2019增加了5000个明星艺人,新增人物主要来自短视频,包括化妆、特效、不同场景的动作等。 ![\\"image\\"][image] iQIYI-VID数据库生产流程 ![\\"image\\"][image 1] iQIYI-VID视频人物库样本实例 iQIYI-VID-2018数据集链接 iQIYI-VID-2019数据集下载链接 这些数据集,是爱奇艺在业务中落地多媒体技术的基础,有了这些数据,才让展开各种实践成为可能。 ## 爱奇艺多模态实践及技术详解 ## 爱奇艺已经将视频识别技术应用于实际业务中,上线了一系列基于AI技术的产品,如只看TA、电视端AI雷达、Starworks智能生产、爱创媒资系统、艺汇选角、广告创可贴点位、智能审核系统等。这些基于AI的技术可以帮助爱奇艺提升人物识别精准度,优化爱奇艺生态系统,以下为多模态技术在爱奇艺实际业务场景中的一些应用实例及其技术详解: ### 只看TA:人脸识别、人体识别及场景识别 ### 在爱奇艺APP中,只看TA这个功能可以使得用户在观看视频的时候,可以选择只看某个演员或只看某对CP的功能,这是AI人物识别技术在爱奇艺的一个典型应用。目前,只看TA已经实现完全自动化的分析,该功能已经在爱奇艺APP移动端上线。 ![\\"image\\"][image 2] 爱奇艺APP端的只看TA功能:只看吴谨言的片段,只播放进度条中绿色为吴谨言片段 只看TA背后的技术设计利用人脸识别、人体识别及场景识别等信息,可更精确地捕捉视频画面,打破单模态的局限,为用户带来更为个性化的观看体验,并保证人物只看TA信息的剧情的完整性。 ### TV端银河奇异果-AI雷达:人脸识别、场景识别、音频分析技术 ### 爱奇艺TV端的银河奇异果-AI雷达这个功能让用户在看电视时可以通过按遥控器上健来识别画面中的人物,背后的身份识别技术也用到了多模态,比如为了保证只看TA人物片段的剧情完整性,除了人脸识别技术,还需要结合场景识别、音频分析技术。 ![\\"image\\"][image 3] AI雷达-电视中的人物角色瞬间可知 ### 逗芽表情 ### 聊天斗图、看剧追星、搞笑沙雕,你的聊天页面永远缺一个有趣的表情包!爱奇艺基于日益增长的表情分发需求及场景,结合AI技术和爱奇艺IP视频资源,设计了一款通过AI生产动图+人工运营+IP设计模式的表情分发产品——逗芽表情小程序。逗芽表情不仅可以通过AI技术自动识别视频中的人物表情并截取生成动图,还根据识别出的人物情绪自动匹配上相同情感的文字。目前逗芽表情日均可更新5000张高质量动图,并实时追踪热点,保证了动图的新鲜度和丰富度。 ![\\"image\\"][image 4] 逗芽表情及文案生成 ### 明星视频混剪Starworks:智能生成视频剪辑 ### 在追星族中,盛行着剪辑爱豆视频的风气,有才华粉丝不但会想方设法把所有关于爱豆的镜头剪辑到视频中,甚至会把素材自编自导成有故事有情节的小剧场,被称为“剪刀手”。但是,剪辑爱豆视频是一个痛并快乐着的过程,在浩如烟海的视频中找到并剪辑关于爱豆的镜头非常耗时耗力,煞费心血。现在,爱奇艺基于多媒体技术的明星视频混剪Starworks,就可以让这些“剪刀手下岗”了。 Starworks(演示视频)可以实现根据剧本自动搜索素材,智能生成符合某个话题的视频集锦,支持不同画面的不同输出方式,如横竖屏效果、自动卡点配乐、台词集锦、CP等。如漫威老爷子,在他的100部大片中,他均有几秒钟的客串镜头,如果有人在他去世的时候想剪辑出只有他出现的镜头并拼接成短视频来纪念他,纯人工的工作量有多大可想而知。但是,Starworks可以在不到1分钟内完成。 ![\\"image\\"][image 5] Starworks智能生产流程图 以此为例来说明一下,Starworks是如何做到在一分钟之内完成只看TA。 首先,爱奇艺长视频中所有的人物,都已经用人脸识别技术打上了明星的点位信息,爱奇艺拥有百万级的明星人物库,使得人脸识别可以识别出从一线到十八线的相关明星艺人;然后,人工需要设置视频时长、人物、剪辑模式、配乐与否等信息,AI根据这些设置参数,直接输出该明星的视频。也就是说Starworks自动生产视频,其实分为两步,一是给视频打点,二是镜头合成策略。合成策略里会分为好多子模块,就像一个剪辑师有自己的素材库、音乐库、特效库、花字库一样,AI这里除了有这些库以外,还有不少算法来模仿剪辑师的行为,如音乐分类、节拍点检测等算法,来完成镜头与音乐的匹配合拍等。 Starworks还可以利用台词搜索,实现相同或相关台词的集锦(演示视频)。比如《延禧攻略》这个巨火的宫斗剧,你知道有多少人骂魏璎珞“疯了”吗?有多少人嫉恨魏璎珞,歇斯底里地骂她“贱人”吗?Starworks根据台词索引,可以马上把相关片段找出来,是不是很疯狂? 这个功能涉及到的技术主要包括人脸识别、人脸表情等属性识别、场景识别、服饰和职业识别、台词OCR、NLP、声音和音乐检测、音乐节拍点提取、镜头切分、专场特效、视频滤镜等模态。 Starworks还可以人脸表情识别,如吴亦凡是不是很酷?很少见他笑?Starworks可以根据表情搜索,找到所有吴亦凡的笑的镜头(演示视频)。 在人脸识别方面的进步得益于爱奇艺创建的明星人物库,收录了100万多知名明星或不太知名的艺人,同时,爱奇艺AI技术会监听热搜、播放VV等多方数据,将大家感兴趣的明星人物自动同步到爱奇艺明星人物库,完成人脸识别模型的快速更新。 此外,爱奇艺的人脸识别技术不仅支持真人识别,还支持卡通角色识别。爱奇艺的卡通角色库已经支持热剧中2万多卡通角色,是目前已知的最大规模卡通角色库,也是爱奇艺AI技术独有的虚拟形象识别。 ## 距离完美的情绪识别和分析、视觉语义化还很远 ## 在爱奇艺科学家、PersonAI团队负责人路菊香看来,要实现完美的情绪识别和分析、视觉语义化,我们还有很长的一段路要走。人和机器最大的区别在于,人有感情,而机器没有,这就是机器人在现在和未来永远都不可能取代人类的原因之一。识别人的情绪,人机交互才能进行得更加顺畅,让人更有代入感,但目前在情绪识别和分析这一方面,AI技术还任重而道远。 路菊香表示,所谓的情感识别,在AI里就是转换成某种行为的标签,比如对于爱情,AI可以识别CP同框,以及两人是否拥抱、接吻、牵手、微笑等,但是并不知道两个人是否真的相爱。所以,AI识别情感,只能从这些标签中抽象,但有时候,仅从标签中无法抽象出来一些感情的。 目前,AI情绪识别主要用于识别表情、声音、台词等标签,爱奇艺在这些方面均有应用,如Starworks生产符合某个主题的视频,需要综合利用多种标签。 另一方面,人类接收信息的方式多种多样,包括听觉、触觉、嗅觉等,但是最重要的方式还是视觉,因此,视觉语义化对人类来说是一个具有重要意义的应用方向。 路菊香介绍道,从多模态学习到视觉语义,一般有两种方式:一种是输入多模态特征,输出高层语义,直接训练,即端到端的黑盒模式;另外一种是输入单个模态的特征,提取单模态的标签,再从这些标签中抽象出高层语义。现实应用中往往根据具体问题,多种策略并用。 目前,视觉语义化已经可以结合人脸、表情、行为、台词等方式进行视频内容的简单描述,并进行检索人物情感分析,而这些从单一模态难以获得准确的结果。因为人的表达是通过表情、声调、语言三个方面来综合进行的,所以多模态信息的利用是最准确的解决方案,在多个维度上建立视频的标签gragh,节点表示不同模态的标签输出,节点的连接表示标签的关联,实现语义化的推理,视频人物表情识别。 但是,利用视觉语义化完成更多日常任务,业界仍在努力。 ## 多模态技术和应用难点 ## 将多模态技术应用于视频业务场景中不是一件容易的事。路香菊表示,多模态技术应用的主要难点在于,**多模态信息不能生搬硬凑,需要探索高效整合的方式,挖掘各模态之间的信息关联性和可迁移性,采用模型学习和人工先验结合的方式进行多模态信息整合**,其中,文本的抽象内容标签和图片、音频的具体标签的对应关系是最困难的,简单来说,就是多模态信息融合策略、如何加速的问题。 路香菊建议应该具体问题具体分析,主要难点在于各个模态的关联表达与融合,如在人物识别时,声纹特征与身体特征有时都可以有效地表示人的身份,但是,两者加起来,并不一定会达到更好的效果,如何将两者有效地结合在一起,如何把人的身份信息综合在一个超维度上表达,是非常有挑战的。 ## 虚拟主播是多模态里程碑式突破 ## 在国内,多模态研究相对国外来说起步较晚,目前还是集中在诸如情感识别、人物识别、音视频语音识别、事件检测等比较传统的方向。 但是,国内多模态研究的发展速度非常快,目前在一些主流的学术数据库上已经达到了世界领先的水平,比如爱奇艺在2016年的EmotioW情感识别竞赛上取得了第一名,超过了英特尔和微软;在在iQIYI-VID多模态人物识别数据集上,爱奇艺利用多模态技术也取得了最高的精度。 在应用方面,国内的多模态技术已经基本实现了和国际同步,爱奇艺在视频智能生产的多个项目中都采用了多模态技术,如视频说话人身份识别,爱奇艺使用了人脸、台词、声纹来精确判断哪句台词是谁说的,这是视频理解当中的一个最核心问题;另外,爱奇艺还实现了视频和表情包的自动配乐,音乐节拍提取和明星精彩片段切分来实现明星的视频混剪,都实现了业务落地。 在路菊香看来,爱奇艺的手语主播,以及有些公司推出的虚拟主持人,都是今年来多模态应用的一个里程碑。虚拟人物形象的出现,代表多模态已经可以简单模仿人的行为,完成特定的使命。 ## 多模态未来会打破单模态限制,更贴近人类习惯 ## 多模态未来的应用前景广阔,比如表情包自动配文案算法,采用的就是多模态内容迁移来实现表情包的自动生成。另外,学术上也一直有一些很活跃的方向,如看图说话、跨模态内容检索、视觉问答等。 路菊香表示,多模态技术未来发展的方向,会越来越打破单模态输入输出限制,从而更贴近人类真实使用习惯,因为在人类的实际生活中,多模态是无处不在的。在人类日常生活当中,综合利用多模态信息可以帮助我们更准确的理解人类行为,如学生上课状态监控、健康监护等。 ## 采访嘉宾介绍 ## ![\\"image\\"][image 6] 路香菊博士,爱奇艺科学家,PersonAI团队负责人,专注人物识别及视频分析,创建百万人物库及两万卡通库。组织创办“爱奇艺多模态视频人物识别赛”,开放全球首个影视视频人物数据库iQIYI-VID。 [image]: /images/20220222/f1a69fa74d8c4010b95c7e25da2a4596.png [image 1]: /images/20220222/9b52efb192514b27bf4b0ffdd0a9ea31.png [image 2]: /images/20220222/100840adace54e13abec6e6865212c60.png [image 3]: /images/20220222/2714ced8a24e461498f39dd2eff1a344.png [image 4]: /images/20220222/fe4d4ee03b1c4c278d8071fd526ad71b.png [image 5]: /images/20220222/497ebf92cb7d4c279b3d7627e61be674.png [image 6]: /images/20220222/4e1c99231fec41a1a05171baafd5e497.png
相关 Java多模态操作:如何实现按钮和菜单的有效交互? 在Java中,实现多模态操作(如按钮和菜单的交互)通常涉及以下几个步骤: 1. **事件监听**: 使用Java的事件处理机制来监听用户对按钮或菜单的操作。例如,按钮可 港控/mmm°/ 2024年10月11日 03:30/ 0 赞/ 31 阅读
相关 Java多模态设计:GUI和服务端交互问题 在Java中实现多模态设计,即同时使用GUI(图形用户界面)和服务端交互,会遇到以下问题: 1. **数据同步**: 由于在GUI和服务端之间传输数据,需要确保两者能够 妖狐艹你老母/ 2024年09月10日 07:18/ 0 赞/ 53 阅读
相关 AI-多模态-2022:BLIP【统一理解和生成的多模态】 论文:[https://arxiv.org/abs/2201.12086][https_arxiv.org_abs_2201.12086] 代码:[GitHub - sale 谁借莪1个温暖的怀抱¢/ 2023年09月25日 14:05/ 0 赞/ 69 阅读
相关 图文模态交互 | CLIP + GAN = ? 点击上方“机器学习与生成对抗网络”,关注星标 获取有趣、好玩的前沿干货! ![f5d083adcebb521839112cd654632ca7.png][] 太过爱你忘了你带给我的痛/ 2022年09月03日 13:22/ 0 赞/ 162 阅读
相关 互联网将如何改变科学的未来 ![http://img1.guokr.com/gkimage/m6/6o/rt/m66ort.png][http_img1.guokr.com_gkimage_m6_6o_r 本是古典 何须时尚/ 2022年06月10日 10:17/ 0 赞/ 273 阅读
相关 人机交互未来如何改变人类生活 人机交互技术视频解析教程,现阶段利用自然语言(NLP)以及自然语言理解(NLU)技术及机器学习方式,正慢慢脱离关键词的束缚。再下一步呢?是否机器人能主动跟人产生互 忘是亡心i/ 2022年03月30日 02:28/ 0 赞/ 267 阅读
相关 虚拟主播上线:多模态将改变人机交互的未来 > 现在,看在线视频已经成为很多人的一种生活习惯,人们乐于在忙完一天的工作和家庭生活后抽空看视频放松娱乐一下。然而,由于在线视频平台众多,视频资源丰富,现在的观众们已不满足于视 深藏阁楼爱情的钟/ 2022年02月23日 18:14/ 0 赞/ 350 阅读
相关 虚拟主播上线:多模态将改变人机交互的未来 > 现在,看在线视频已经成为很多人的一种生活习惯,人们乐于在忙完一天的工作和家庭生活后抽空看视频放松娱乐一下。然而,由于在线视频平台众多,视频资源丰富,现在的观众们已不满足于视 朴灿烈づ我的快乐病毒、/ 2022年02月22日 03:48/ 0 赞/ 369 阅读
相关 AI智能写作将改变文学创作的未来? 在科技日新月异不断进步的当下,人工智能正在深入的改变人们的生活,智能机器人、智能穿戴、智能手机等,都让世界发生着前所未有的巨大变化。其中的人工智能写作,正在成为一种新生事物,人 缺乏、安全感/ 2022年01月13日 15:13/ 0 赞/ 449 阅读
还没有评论,来说两句吧...