Press "Enter" to skip to content

阿里人工智能治理与可持续发展的技术方向探索

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

 

作者|奥创

 

建设真正可持续发展的人工智能,是跨多学科、综合性强和智力密集的复杂工作。本文将通过可用AI、可靠AI、可信AI三大类来分析遇到的困难和探索。

 

最近十年,人工智能技术获得了长足的发展,涌现出非常多的科技应用,也创新了很多商业模式。笔者作为人工智能从业者,也非常欣喜地看到,在很多的硬核领域,例如阿里巴巴也有所参与的自动驾驶和城市治理等领域也都取得了瞩目的进步,甚至是在像医疗与生命科学这样的基础学科领域也开启了AI+Science的新范式。

 

尽管如此,人工智能的发展依然存在巨大挑战,不少学者和专家对深度学习持更加审慎的态度,例如Gary Marcus曾多次撰文指出当前深度学习存在“十宗罪”,包括对数据的渴求、解释性缺失和鲁棒性差、工程部署成本高等问题。 当前高速发展的、以数据和算力驱动的人工智能更应被称作“机器智能”,其数学理论方面仍停留在上世纪中后期,它与人类产生和使用智能的方式有很大的区别,这也是当下AI会有诸多“不可理喻甚至智障”表现的根本原因。 美国科技作家Don Monroe在《容易被欺骗的人工智能》一文中的一段话发人深省:“当然,人类观察者也可能被伪装技术和其他技术误导,欺骗人工系统也是可能的,这并不令人震惊;被不同的东西欺骗,才是令人震惊的。”

 

以笔者所处实际业务中遇到的问题为例,简要说明一下在复杂数据环境和任务特性下人工智能可能会遇到的瓶颈和难题:

 

1)平台不允许买卖保护动植物,但它们通常都与正常可交易的物种极为相似;两者之间的细微差别往往超出了视觉模型的分辨极限。

 

2)安全风控场景经常要面对突发风险,工程师们往往缺少足够的时间和资源去收集和标记样本; 如何能够在少样本情况下建立防线?

 

3)电商平台上活跃的用户和流动的资金,也不可避免地吸引黑灰产的注意;专业的黑灰产团队会研究平台机制和算法系统的缺陷,甚至反过来利用AI手段进行牟利,典型案例比如伪造人脸图像和视频突破身份核验系统,利用可进化的机器人绕过平台风控策略进行垃圾消息发送,以及针对搜索和推荐引擎进行作弊以获得非正常的流量; 我们的AI系统在面对恶意攻击时是否足够可靠?

 

4)面对一个拥有近千万商家和10亿消费者的平台,上面有各式各样的角色和各自的利益诉求,平台治理工作需要在这样一个动态博弈环境中去平衡和兼顾各个角色的利益,本身也极富挑战。

 

总体来说,可以将AI当前遇到的问题和挑战归为三类:

 

一是AI在某些业务场景的使用中仍表现不佳。 一个典型的例子是,当前绝大部分算法仍须假设训练样本和测试样本来自同一概率分布 (IID)。对于训练样本和测试样本概率分布不同情况下的问题(OOD),基于源域数据训练出来的模型很难在目标域获得良好表现;例如迁移学习、小样本学习、开集识别、稳定学习以及各类泛化性提升的衍生研究方向基本都是试图解决这类问题的。

 

二是AI存在一些固有的缺陷,这会严重制约其在重要场景中的使用。 例如,预训练模型可能会被植入新型的后门、训练所使用的数据可能会被恶意投毒或是在模型服务阶段被逆向还原、对抗样本能够使得绝大部分模型失效、数据的偏差导致模型在推理时出现偏见、以及普遍存在的模型黑盒与不可解释性等问题,都属于此列。

 

三是AI的滥用成为一种新的威胁。 例如,深度伪造与合成技术、以及多模态生成式模型发展迅速,而相关的检测和识别措施还未跟上;一旦该类技术被用于谣言和不良信息传播,后果将不堪设想。此外,个人信息在商业自动化决策阶段的不合理使用、过度使用短视频推荐算法可能会导致的信息茧房,也都越来越引起社会和行业的关注。

 

为持续探索并最终解决上述问题,在去年6月, 阿里巴巴安全部算法研发团队升级成为人工智能治理与可持续发展实验室(Alibaba Artificial Intelligence Governance Laboratory,AAIG)。 在新的品牌下,更加注重可持续AI的建设,努力践行 “人人受益,责任担当,开放共享” 的好科技。AAIG的技术方向涵盖以下几个方面:

 

可用:在规模化和真实的业务场景中去落地人工智能,包括计算机视觉、自然语言处理、图计算、行为分析和异常发现、知识计算、多模态融合识别等各项关键技术,解决实际场景中遇到的诸如数据低资源和非均衡、泛化性能差、语义鸿沟难以跨越以及推理成本高昂等问题。坚持从真实业务的痛点问题出发,我们相信只有实战中才能催生出更有用和更强大的技术。

 

可靠:通常也称作鲁棒性/健壮性,即不仅仅要考虑模型在绝大多数正常情况下的效果,而且需要确保AI系统在受到外部环境扰动或内部参数波动等不确定性因素干扰时,仍能保持其效果的稳定性。这里的外部环境扰动可能是输入文本的变形变异、图像中的对抗样本或者是完全未知的数据分布和任务类型;这里的内部参数波动可能是因为训练数据被人恶意投毒污染、存在标签噪声或者在增量更新时无法保证过去样本的权重。这是今天将深度学习模型用于高敏感度和高安全等级场景的前提条件。

 

可信:首先是负责任的AI,必须是不被滥用和确保隐私数据受到保护的、透明可解释并且能够让人类参与理解和决策的、结果建立在因果推理基础上而非单纯数据关联统计上、并且是对大多数群体公平公正的技术。同时也应该是有温度和具有人文情怀的AI,需要将科技伦理引入到模型研发的生命周期中,如同美国科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的机器人三定律,“建设机器人需要其创造者赋予正当的道德伦理观念”,今天开展这项工作正是恰逢其时。

 

如何建设可用、可靠、可信以及更加可持续发展的技术,是一个值得探索和讨论、并为之长期投入和付出的话题。笔者从所在团队最近两年的工作中,选取具有代表性的三大类19个技术点进行阐述,抛砖引玉,希望对各位读者有借鉴意义。

 

可用AI

 

面向规模化真实场景的AI技术

 

文本内容安全及情感分析问题研究

 

文本内容安全主要是识别和阻断互联网上以文字为载体的色情、辱骂、广告、违禁等非法不良信息的传播,其核心难点在于, 黑灰产会利用各种手段对内容进行变异对抗,加之自然语言在认知层面天然存在着巨大的歧义性,因此从单一内容维度往往很难进行有效识别。 针对此类问题,我们从内容的主题、知识、情感等多个维度进行识别。其中,我们提出了 “属性-情感”配对抽取的细粒度情感分析技术 ,用于解决某些违规内容从主题上无法判断其风险性的难题。通过挖掘文本中所表达的情绪和观点来提升负面违规内容的识别准确率,同时也能够有效解决同一文本片段中对不同目标的情感差异化表达。该技术(《SpanMlt: A Span-based Multi-Task Learning Framework for Pair-wise Aspect and Opinion Terms Extraction》)也被自然语言处理领域的国际顶会ACL 2020作为长文收录。

 

 

SpanMlt: A Span-based Multi-Task Learning Framework for Pair-wise Aspect and Opinion Terms Extraction

 

风险知识图谱以及隐喻识别技术

 

内容安全场景是一个数据低资源、知识高门槛的场景。在这种设定之下,仅仅通过纯数据驱动的方式很难有效识别出低频出现的风险内容。我们提出基于知识图谱技术的方法,实现对专家知识的结构化沉淀,并将结构化的知识图谱融入到深度学习模型中;让模型看到的不仅仅是字符串表面的意思,更能够集成丰富的语义关系以及字面背后的领域知识,从而使得模型具备更强的鲁棒性及可解释性。我们提出的一种隐喻实体链接技术,能够 将刻意伪装的文本内容有效链接到风险知识图谱中的实体上 ,从而提升对变异违规内容的识别能力。该技术通过对原始文本内容进行实体遮罩与填充来获得影响风险实体指代的重构文本,学习得到隐喻文本与风险实体的指代关系,从而打破了原有实体技术必须基于显式指代词的限制,能够更加有效识别隐晦内容背后所指代的风险实体。该技术(《Towards Linking Camouflaged Descriptions to Implicit Products in E-commerce》)已被信息检索领域的国际顶会SIGIR 2020作为长文收录。

 

 

Towards Linking Camouflaged Descriptions to Implicit Products in E-commerce

 

此外,我们参加了CCKS 2021 通用百科知识图谱实体类型推断竞赛。因为实体类型推断在知识库的构建和应用中具有非常重要的价值,因此该任务也一直是研究的热点。本次竞赛要求参赛者从给定的数据中推断出相关实体的类型,任务涉及的类型包括组织机构、人物、作品、位置等多个领域,共计54种实体类型,并且实体类型之间具有层级关系。我们基于Roberta模型,把标签进行层次化处理,并将层次化特征信息进行联合编码得到Label的低维表示,并通过Hierarchy Loss优化了分类标签所占的比重。最终我们的模型取得了0.8613的F1-score,从256支参赛队伍中脱颖而出,取得了第一名的成绩。

 

「启发式领域适应」成果入选NIPS,提升模型迁移效果

 

高精度的深度学习模型通常需要大量经过准确标注的训练样本,并且要求训练样本与真实样本满足独立同分布条件。与其它场景明显不同的是,安全场景具备两个典型特点:一是在很多情况下,风险或者违规样本的收集成本比较高,二是业务存在对抗和变异,其真实样本分布随着时间不断改变。因此,算法工程师需要利用小样本、迁移学习和增量学习等技术,来解决数据不充分情况下的模型训练以及数据分布随时间漂移情况下的模型迭代问题。此外,作为中台面临着多用户多场景问题,单一模型往往无法同时在多个场景中达到最优效果,因此高效解决不同内容域、风险域的识别问题成为当前内容安全的主要问题之一。我们 将经典的「启发式搜索」思想融入到领域适应问题中 ,以解决数据不充分情况下的模型训练问题,进而将算法迁移到新场景中。比如,利用该研究提出的技术可以比较便捷地将各类内容安全算法从电商场景迁移至直播场景。相关论文(《Heuristic Domain Adaptation》)已经被人工智能领域顶级会议NeurIPS 2020(神经信息处理系统大会)接收。

 

 

Heuristic Domain Adaptation

 

基于训练和预测任务一致性优化的图像分类算法

 

风控场景中一个比较典型的问题是真实场景的风险浓度远小于1%,线上产品的指标通常使用FPR对应的TPR来衡量,而分类模型的训练则往往利用CrossEntropy来进行约束。采用ACC去衡量模型和产品交付的性能,但CrossEntropy等损失函数的优化在于最小化全类别的错误率,这种模型优化函数与业务评测指标的不一致,势必会导致算法优化结果与实际线上效果的不对齐。从最终使用方式和业务结果出发,我们针对优化函数进行改进,使得训练任务和业务模型任务保持了优化方向的一致性。阿里巴巴与中科院计算所合作的相关技术(《When All We Need is a Piece of the Pie: A Generic Framework for Optimizing Two-way Partial AUC》)已经被机器学习国际顶会ICML 2021以长文形式接收。

 

 

When All We Need is a Piece of the Pie: A Generic Framework for Optimizing Two-way Partial AUC

 

细粒度图像识别技术RAMS

 

该技术的提出主要是用于解决前文提到 如何识别平台上禁止售卖的保护动植物 这一难题。在细粒度图像识别领域,区域注意力的定位和放大是一个非常重要的因素,基于CNN的方法对此进行了大量探索,然而CNN的 感受野有限且缺乏全局依赖关系 的建模能力。近年来,视觉Transformer(ViT)取得了突破性的研究进展,我们通过引入ViT中的自注意力机制来实现图像中长距离依赖关系的提取。ViT的主要问题是感受野大小相对固定,对图像中的每个Patch的关注程度没有区分性,限制了细粒度性能的进一步提升。为了学习具备局部判别性的区域注意力,我们提出了 多尺度循环注意力的Transformer(RAMS-Trans) ,利用Transformer的自注意力机制以多尺度的方式循环学习判别性区域注意力。该方法的核心是 动态Patch建议模块(DPPM)引导区域放大 ,以完成多尺度图像Patch块的集成。DPPM从全局图像开始,不断迭代放大区域注意力,以每个尺度上产生的注意力权重的强度为指标,从全局到局部生成新的Patch块。该技术(《RAMS-Trans: Recurrent Attention Multi-scale Transformer forFine-grained Image Recognition》)已经被ACM Multimedia 2021接收。我们也正在积极推进将该技术用于 分析物种行为和维护生物多样性发展 等方面的工作中。

 

 

RAMS-Trans: Recurrent Attention Multi-scale Transformer forFine-grained Image Recognition

 

多模态动态识别框架DRDF

 

多模态问题并非只存在于复杂的图文混合内容或视频领域,单单一张包含文字的图片可能也会含有复杂的语义。在多模态领域过去很多研究工作主要集中在Early Fusion和Late Fusion上,我们发现对于不同的样本,其对应的图片和文本两个通道的重要性是不同的,因此需要 根据不同的样本进行动态的权重选择(Experts Fusion) 。本文将MoE(Mixture of Experts,多专家融合)的结构运用到多模态任务之中,灵活运用MoE中常见的路由机制,将其输出作为模态信息重要性判断的依据。DFDF框架的高度模块化也使得它在工业级别的应用上也具有很强的适配性和可用性。阿里巴巴和浙江大学联合研发的该项技术(《DRDF: Determining the Importance of Different Multimodal Information with Dual-Router Dynamic Framework》)已经被ACM Multimedia 2021接收,并被广泛应用于针对富含文字语义的图片(如表情包、短视频封面图、商品宣传照等)进行内容理解和安全识别。

 

 

DRDF: Determining the Importance of Different Multimodal Information with Dual-Router Dynamic Framework

 

高效分类技术助力图像识别建模效率提升

 

小样本学习是在安全场景常用的技术之一,因为高价值的风险图像样本往往难以收集。ECCV 2020 VIPriors挑战赛最困难的一点,是1000个数据类别中,每个类别仅有50张图片作为训练数据;参赛者的模型,必须能在这种训练数据极少的情况下,实现对于目标的高精度识别分类。挑战赛的初衷,就是鼓励探索能够高效学习的AI神经网络架构,降低神经网络训练过程中的人力标注成本和计算资源消耗。在分类赛道上,比赛数据基于ImageNet抽取,1000个类别中的 每个类别仅使用50张图像,训练集共5w张图片,规模仅为Imagenet的1/26。 比赛规定模型只能train from scratch,不能使用额外的训练数据,不能使用预训练模型,不能使用迁移学习,排名以测试集上的Top-1 Accuracy为准。通过一种新型设计的残差网络结构、一种综合类间差异性和类内相似性约束的损失函数以及引入树状语义先验等方法,阿里安全的算法团队获得了图像分类赛道的第一名。基于此技术的增强和改进,我们提出了一种“基于混合专家模型MoE(Mixture of Experts)知识融合的高效图像分类方法”,以top-1 acc 75%的优异成绩再次夺得ICCV 2021 VIPriors图像分类赛道冠军。

 

 

Dual Selective Kernel Network(DSK-net)

 

可靠AI

 

面向对抗和未知风险场景更加鲁棒的AI技术

 

抗击内容变形变异,打造更鲁棒的文本分类器

 

针对恶意用户通过文本变形变异等手段规避内容风控系统这一难题,我们利用神经机器翻译和多模态词嵌入技术,实现了更加鲁棒的文本内容风险识别系统。 首先,基于主动生成的对抗平行语料,利用神经机器翻译技术构建对抗纠错模型,消除用户产生内容中的对抗扰动;同时,利用 多模态词嵌入技术提取文本的语义、语音、字形等特征 并通过多模态融合机制有效地增强系统面对义近、音近、形近的鲁棒性,进一步提供系统识别准确率,降低恶意用户进行文本对抗攻击的成功率。基于该技术打造的TextShield产品有效支撑了互联网平台的文本对抗防御能力,提升了不法用户进行作恶的代价,有效保护了平台和用户的合法权益,为营造良好的购物和社交环境起到了积极作用。相关成果形成论文《TEXT-SHIELD: Robust Text Classification Based on Multimodal Embedding and Neural Machine Translation》发表在安全四大顶会USENIX-Security 2020上。

 

检索系统黑盒查询攻击研究,关注搜索引擎的安全性

 

为分析图像检索系统在极限情况下的鲁棒性,一般的方法是使用对抗样本进行攻击测试,得到系统在受攻击情况下的各项性能指标。通常在模型未知的情况下,攻击者主要采用迁移攻击和查询攻击两种手段;前者是通过攻击已知替代模型生成对抗样本,后者则是通过不断地调用目标模型获取结果,借助反馈来优化对抗样本(也更接近真实情况)。相较于更加成熟的分类模型攻击,针对检索算法的查询攻击是更难的,原因在于 检索系统的输出并不是置信度分值,而是没有标签的图片序列,导致攻击结果的好坏很难被量化。 我们的工作证明了检索系统也能被攻破。我们首先定义并提出了一个基于相关性的损失函数,用来量化攻击的结果;为了减少查询攻击的请求量,引入模型窃取的思想用于进行更加精准的梯度估计,从而减少对目标模型调用的次数。该项工作通过详细的实验数据证明 经过精心设计的对抗样本能够对大多数图像搜索引擎以及基于类似技术构建的图像版权保护系统构成威胁 ,具有较大的现实意义,成果(《QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval》)也被计算机视觉领域的国际顶会CVPR2021收录。

 

 

QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieva

 

一种更加隐蔽的对抗样本及生产方法

 

之前对抗样本的生产方式是在原始图片上加入人眼不可见的对抗噪声,从而使得模型识别结果出错。这类对抗样本中其实包含了原始图片的所有信息,因此理论上来说 都无法抵挡图像预处理等防御手段。 这也促使我们从一个相反的角度(即“做减法”)去重新思考对抗样本的不可感知属性。具体来说,这种攻击手段的独特之处在于我们并不直接对图片添加对抗扰动,而是 通过优化量化表来实现信息丢失的操作。 传统基于“做加法”的对抗攻击,模型用于识别图片的关键信息并没有丢失,只是被对抗噪声隐藏或弱化了,如果采用适当参数的去噪手段将导致增加的对抗噪声被去除或减弱,使得关键信息依然能够被模型提取,从而达到防御(至少是部分防御)的目的。我们这种基于信息丢失的方法所生成的对抗样本,由于已经将模型识别的关键信息丢弃了,因此常规的策略很难对这些信息进行恢复,很大程度上增加了对抗防御的难度。该技术(《AdvDrop: Adversarial Attack to DNNs by Dropping Information》)被计算机视觉领域的国际顶会ICCV2021收录。

 

 

AdvDrop: Adversarial Attack to DNNs by Dropping Information

 

探索真实物理世界的对抗样本攻击

 

此前针对AI模型的安全问题,大部分研究工作主要聚焦在生成对抗样本。对抗样本作为一种非自然的人为添加的恶意干扰,可以使AI模型发生特定错误。然而,经我们研究发现, 攻击AI远非需要人为去制造对抗样本,只需简单使用激光笔,就可以让AI模型不再有效。 在这个工作中,我们设计了一种算法,可以模拟光束对AI模型的攻击效果,并在现实世界中得到验证。此外,我们也在大型数据集上做了广泛的分析,进一步探究其攻击的机理。我们的攻击方法也揭示了之前深度学习没有被研究过的弱点。例如,当将不同频谱的光束打在同一个物体上时,对于模型来说,局部变成紫色的刺猬等同于苜蓿。而光束本身形状对于模型也具有特别语义,例如拖把。该技术(《 Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a Blink》)被计算机视觉领域的国际顶会CVPR 2021收录。

 

 

Adversarial Laser Beam: Effective Physical-World Attack to DNNs in a Blink

 

提出自动化AI对抗平台CAA

 

为帮助AI应用从零开始构建安全防线,我们整理归纳了学界针对AI模型提出的32种攻击方法,以此为基础搭建了 自动化AI对抗攻击平台CAA(Composite Adversarial Attacks) ,帮助检测AI应用存在的安全漏洞。AI安全专家可针对被检测AI的弱点和缺陷提出安全建议,帮助提升系统的鲁棒性。该研究成果(《Composite Adversarial Attacks》)被人工智能顶会AAAI 2021接收。横向对比业界的其它工具箱,我们的自动化对抗攻击平台首度实现对抗攻击的工具化,能够让使用者在没有任何专业领域知识的情况下,针对AI模型进行对抗攻击和鲁棒性测试。除此之外,CAA通过自动化搜索技术来合成多个攻击算法的最佳组合,显着提升了现有攻击性能和效率。 论文通过详细的实验和数据表明,CAA超越了最新提出的攻击方法,是威胁当前AI系统安全的最强攻击之一。

 

 

Composite Adversarial Attacks

 

联合发布全新测试基准平台

 

清华大学、阿里巴巴、瑞莱科技在第三届智源大会上正式对外发布了新一代对抗测试基准平台。该平台的代号是ARES,全称是Adversarial Robustness Evaluation for Safety,旨在 为全球AI安全和对抗的研究者提供客观公正的指标评测服务。 在CVPR 2021对抗竞赛期间,ARES通过在线接入评测的方式支持了白盒对抗攻击竞赛,全球1600多支代表队的选手们在该平台上提交了接近2000个攻击算法,其中超过主办方提供评测基线的高质量算法有一百多个。ARES平台不断迭代更新业界的优质算法,也集成了CVPR 2021人工智能攻防竞赛中排名前五的攻击算法,以及清华大学和阿里安全的各项最新SOTA成果。

 

 

Adversarial Robustness Evaluation for Safety

 

可信AI

 

负责任和有温度的AI技术

 

实人认证产品安全性通过权威认证

 

由于行业技术发展水平参差不齐,一些生物识别技术存在安全性争议。由阿里安全研发的实人认证产品在2020年通过了国际权威联盟FIDO的认证,阿里成为国内首家通过该认证的公司。作为国际知名产业联盟标准组织,FIDO对阿里此次认证水平和测试对象的性能指标等都提出了非常高的要求。如在人脸辨识项目中,FIDO要求整个产品的误识别率(FAR)要小于0.01%,以此保障识别的安全性,如1万个测试对象故意刷脸攻击某个用户人脸,每人尝试刷脸至少5次,仅允许1次被误识别为此用户。FIDO还要求错误拒绝率(FRR)必须小于3%,以保障用户体验,即用户本人刷脸100次,必须保证至少97次能通过。除FIDO外,实人认证产品也通过了银行卡测试中心(BCTC)的金融级测试认证,标志着我们的能力达到了金融支付级安全标准。就在今年四月份,中国信通院“可信人脸应用守护计划(简称护脸计划)”召开2022年度第一次全体成员大会,正式公布“护脸计划”专家委增选名单以及第二批人脸识别安全专项评测结果,阿里巴巴实人认证V4.0方案在人脸识别安全专项中获评优秀。

 

 

阿里巴巴实人认证产品是平台用于身份核验和打击非法账号的重要手段

 

多手段抗击DeepFake,保障信息真实可信

 

随着图像生成技术的愈发先进及相关开源算法技术的易获得性,高质量的人脸伪造视频更容易被制作并且能够轻易欺骗人类。 尤其是近些年来Deepfake技术的普及,使得制作逼真伪造视频的门槛越来越低,因此更加先进的检测技术是非常必要的。 此前的研究主要专注于在具备强监督标注的情况下,如何较好地检测到 DeepFake 图像或者人脸。我们完成的一项研究更加关注现实中广泛存在的问题:部分攻击(篡改)的视频,即视频中只有部分人脸被篡改了。这种只需要视频级别标注的新型 DeepFake 视频检测方法,能够从视频中准确识别出被部分篡改的人脸。阐述该技术(《Sharp Multiple Instance Learning for DeepFake Video Detection》)的论文被国际学术顶会ACM MM2020收录,也被作为案例写入中国信通院编写的《人工智能安全白皮书》。

 

 

Sharp Multiple Instance Learning for DeepFake Video Detection

 

Deepfake生成技术的多样性,给深伪检测带来了很大的困难,如何提升检测的泛化能力变得尤其重要。我们从神经网络的基本Operator出发,研究生成图像和自然图像之间的差异,从而来提升Deepfake检测模型的泛化能力。通过理论推导发现, 相位谱对UpSampling的操作比幅度谱的敏感度更高 ,一般的生成模型在其Decoder Block中基本都存在一些UpSampling,所以通过引入相位谱检测,可以在Deepfake的跨库检测上取得相当不错的性能。由阿里巴巴与中国科技大学联合研发的该项技术(《Spatial-Phase Shallow Learning: Rethinking Face Forgery Detection in Frequency Domain》)在计算机视觉领域的国际顶会CVPR 2021发表,也作为深伪检测方面的代表性工作被斯坦福发布的《2022人工智能报告》所引用。

 

 

Spatial-Phase Shallow Learning: Rethinking Face Forgery Detection in Frequency Domain

 

CIKM最佳应用论文,图卷积网络过滤水军信息

 

在闲鱼、淘宝等APP上存在的垃圾信息不仅会影响正常消费者的体验,也容易诱发欺诈、刷单等恶意行为,因此需要对垃圾评论进行有效的治理。 在真实的垃圾评论识别场景中,风控系统和网络水军之间存在着激烈的对抗,我们需要使用更加多维度的信息识别变异的垃圾评论,提升黑产的对抗成本。 与以往仅仅基于语言模型和统计特征的方法不同,我们提出的GCN-based Anti-Spam(GAS)系统,首次将图卷积网络(Graph Convolutional Networks)引入该领域,并且 创造性地引入两个不同结构的图并进行融合以捕捉不同语义信息 ,大幅提升了系统对变异垃圾评论的识别覆盖率。阐述该技术的论文(《Spam Review Detection with Graph Convolutional Networks》)被国际学术顶会ACM CIKM 2019收录,并被评为最佳应用论文,被引用次数已达近百次。

 

 

Spam Review Detection with Graph Convolutional Networks

 

推出基于服饰理解的区域检索技术,打击盗版侵权,守护百万商家的知识产权

 

服饰类等柔性物体的相似性度量和检索一直是业界难题,但对于平台上的假货和侵权识别又是至关重要的能力。阿里安全在CVPR 2020的Oral论文(《Which is Plagiarism: Fashion Image Retrieval based on Regional Representation for Design Protection》)中,提出基于服装区域性表达的检索模型,对图像中的服装进行区域化的相似性学习和度量,检索效果显着提升。在现有服装检索任务基础上,提出了一个新的「盗版服装检索」研究任务,建立了针对该任务的数据集,并给出了系统性的解决方案,有效提升了「盗版服装图像」的检索效果。同时,所提出模型在服装关键点估计和同款服装检索上的性能也处在领域内前列。该工作将赋予阿里巴巴原创保护平台更加强大的侵权检测能力。

 

 

Which is Plagiarism: Fashion Image Retrieval based on Regional Representation for Design Protection

 

创新AI虚拟模特产品,由堵及疏解决盗图侵权问题,帮助中小商家减少上新负担

 

优质内容的生产对商家来说很重要,但成本也非常高,许多小商家难以负担,这也会在一定程度上催生和加剧侵权盗版问题。AI模特利用创新算法技术在目标人脸模块基础上,生成成千上万种五官组合,这样就能得到全世界独一无二的虚拟人脸;同时利用算法技术将服装平铺图转化成3D图“穿”在模特身上。商家在上传服装平铺图后,还可以自主选择不同的人脸、表情、妆容、身型、背景图等,为相应的服装进行搭配,从而形成自己特定的拍图风格。为了提升效果和逼真度,项目组团队也与北京服装学院进行合作,通过使用专业动捕设备来记录真正的模特形态和动作,用真实数据“加持”虚拟模特,力求最大程度的还原。 该方案的一大亮点是低成本和便捷性 ,相比以往的3D人体重建往往需要多个摄像头或者连续的多帧影像, 现在只需要商家提供一张平面图片,就可以生成专属的虚拟模特供商家使用。安全性是该方案的另一大特色,我们通过不可见的数字水印和虚拟人脸版权库来保证不被侵权盗用。 虚拟模特“塔玑”在帮助数以万计的中小商家减少上新成本和缩短上新时间方面,发挥了重大作用;特别是对于疫情期间极为稀缺的外模、童模,起到了很好的替代作用。

 

产品方案详见:https://yc.alibaba.com/#/targetFace

 

 

 

阿里巴巴虚拟模特项目 —— 塔玑

 

挑战者计划:科技强国,青年强国,乡村人才振兴

 

为鼓励基础学科发展和为社会培育算法和安全人才,AAIG每年设立百万元的奖金池,历经三年打造了九场人工智能与安全领域的顶级系列赛事。截止2021年底,“挑战者计划”已经吸引了全球超过26个国家和地区、900所高校以及企业在内的40000支队伍参加。通过和IJCAI、CIKM、AAAI、ACM MM、CVPR、ICME等国际知名学术顶会联合举办Workshop和Challenge,我们提出工业界现实的算法难题,分享阿里多年沉淀的经验和知识,并与全社会和全行业共同探讨人工智能的未来。在2021年1月启动的CVPR白盒防御以及无限制对抗竞赛中,我们公布了业界最全面、完整和公正的对抗测试基准平台(Adversarial Robustness Evaluation for Safety);在2021年4月举办的ACM MM电商标识检测鲁棒性防护竞赛中,我们开源了业界最大的商标识别数据集;2021年12月23日,我们与清华大学人工智能研究院联合举办了“第三届AI与安全研讨会”,和各行各业的专家共同探讨人工智能算法的治理和可持续发展。既有对“更安全可信可靠的人工智能”的技术追求,亦有“凡有鸿鹄志,我们助力其乘风上青云”的社会责任,这也是AAIG成立的初心。

 

总结

 

最后还想说明的一点是,建设真正可持续发展的人工智能,是一个跨多学科、综合性强和智力密集的复杂工作,今天人工智发展所面临的难题,单凭一家企业、一所高校或是一个机构是不可能独立解决的。作为科技企业,我们重视人工智能的发展,也重视人 工智能的安全与治理。未来我们将会继续秉持可持续发展的原则,大力投入可用可靠可信技术的研发,积极探索发展与治理并重的敏捷实践,始终如一地坚持负责任和有温度的科技方向。

 

Be First to Comment

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注