防止“虚拟人”欺诈、发起AIGC可信倡议…2023 人工智能大会聚焦“大模型时代AI安全”

2023-07-08 02:34:20 来源: 东方网

东方网7月7日报道:AIGC(生成式人工智能)安全成为当前人工智能研究发展的重要议题。今天,2023世界人工智能大会(WAIC)迎来“聚焦·大模型时代AIGC新浪潮—可信AI”论坛。

聚焦大模型时代AI安全,AI安全检测平台“蚁鉴2.0”发布


【资料图】

在该论坛上,本次人工智能大会的镇馆之宝“蚁鉴2.0”全面开放,并面向全球开发者免费提供AIGC安全性、AI可解释性、AI鲁棒性三项检测工具,可服务于数字金融、教育、文化、医疗、电商等领域的大规模复杂业务场景。

据了解,“蚁鉴2.0”的两项硬核能力,一是实现了用生成式能力检测生成式模型。检测标准覆盖内容安全、数据安全、伦理安全三大类,可对大模型生成式内容完成包含个人隐私、意识形态、违法犯罪、偏见与歧视等数百个维度的风险对抗检测,并会生成检测报告,帮助大模型更加有针对性地持续优化。

“生成式大模型是一种‘深黑盒’技术,‘蚁鉴2.0’通过智能博弈对抗技术,很像一个24小时不眠不休的‘安全黑客’在找茬大模型,从而找到大模型存在的弱点和安全问题所在。”蚂蚁集团大安全事业群技术部总裁李俊奎表示,这种AI对AI的评测,也是教学相长。好比生成式考官考核生成式运动员,在对抗中双方能力互相提升,进一步提高整个行业的AI安全水位。”

李俊奎表示,人工智能的深度应用,不仅对数据、算法、算力提出了更高要求,也对安全、隐私、伦理提出更多挑战。在确保数据安全和隐私保护、健全人工智能伦理与安全的前提下,才能让AI技术真正地释放应用价值。

防止“虚拟人”欺诈,AI生成图片鉴别技术亮相

事实上,AIGC爆火的背后,不法分子通过生成的图片去规避版权、身份验证,非法获取利益,给人民群众造成了财产损失。

此次人工智能大会上,合合信息研发了关于AI生成图片鉴别技术,用于帮助个人及机构识别判断AI图片是否为生成的,防止“虚拟人”欺诈,通过解决生成式AI面临的部分伦理问题,助力生成式AI的健康发展。

该项目的难点主要分为两点:生成出来的图像场景繁多,不能穷举,不能通过细分来一一训练解决;有些生成图和真实图片的相似度过高,很贴近于人类的判断,对于机器而言,真伪判定只会更难。合合信息基于空域与频域关系建模,能够在不用穷举图片的情况下,利用多维度特征来分辨真实图片和生成式图片的细微差异。

合合信息智能创新事业部总经理唐琪表示,生成式图像检测技术在反诈骗、版权保护等领域的应用空间十分广泛。例如在金融行业,不法分子可利用AI合成技术对线上资金进行盗刷,威胁公民财产安全。本项技术可通过对支付环节的干预,降低资金盗刷概率。

值得一提的是,此次论坛上,中国信通院、上海人工智能实验室、武汉大学等多家单位还共同发起的《AIGC可信倡议》。

该倡议得到数十家单位参与,围绕人工智能可能引发的经济、安全、隐私和数据治理等问题,提出构建AIGC可信发展的全球治理合作框架,采用安全可信的数据资源、技术框架、计算方法和软件平台等全面提升AIGC可信工程化能力,最大限度确保生成式AI安全、透明、可释。

标签:

[责任编辑:]

最近更新