• 官方微信

    CA800二维码微平台 大视野

  • 工控头条

    CA800二维码工控头条App

当前位置:自动化网>自动化新闻>行业资讯>系好“安全带”,生成式人工智能才会更好发展

系好“安全带”,生成式人工智能才会更好发展

发布时间:2023-04-15 来源:央广网 类型:行业资讯 人浏览
关键字:

导  读:

人工智能通用大模型横空出世,全世界看到了AIGC(人工智能生成内容)的强大。与此同时,AIGC的可信度、隐私保护、伦理等问题亦引发空前争议。我国有关部门快速反应。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),提出二十一条举措。业界认为,这是国内首次明确...,机器人,人工智能,智能,智能,人工智能

人工智能通用大模型横空出世,全世界看到了AIGC(人工智能生成内容)的强大。与此同时,AIGC的可信度、隐私保护、伦理等问题亦引发空前争议。

我国有关部门快速反应。4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《管理办法》),提出二十一条举措。业界认为,这是国内首次明确针对生成式人工智能服务征求管理意见,将有利于推动AIGC产业健康稳定发展。

AIGC负面影响显现,行业亟待规范

当前,人工智能越来越多地被应用于文本、图像、视频等生成工作,成为继专业生成内容(PGC)、用户生成内容(UGC)后的新型内容生产方式(AIGC)。

然而从AIGC走进公众视线的那一刻起,种种争议就一直围绕着它。

版权之争首当其冲。2023年初,商业图库GettyImage多次指控AI公司StabilityAI未经授权复制和使用其图库中逾1200万幅受版权保护的图片,用以训练其AI图像生成模型。《华尔街日报》也表示美国新闻集团正准备向OpenAI、微软和谷歌等公司提起诉讼,要求AI工具在训练中对使用其内容的部分进行费用补偿。

数据安全、隐私安全等问题也随之而来。据韩国媒体报道,三星内部已先后发生三起误用滥用ChatGPT案例,包括两起“设备信息泄露”和一起“会议内容泄露”,涉及半导体设备测量资料、产品良率等机密内容。而摩根大通、软银等企业已经开始限制员工在工作场合使用ChatGPT。

更有人利用AIGC强大的内容生成能力伪造信息,多次引发热议。比如近日广州一女子在地铁上的照片被他人使用AI技术“一键脱衣”,虚假图片在网络广泛传播;某男网红使用“AI换脸”技术,替换掉电视剧中的男主角头像,制作自己与女明星亲吻的画面;今年2月,有人用ChatGPT写了一条“杭州市政府将取消机动车尾号限行政策”的假新闻,让不少人信以为真……

多国已对ChatGPT展开调查。4月初,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。加拿大联邦隐私监管机构也宣布对OpenAI展开调查,因其涉嫌“未经同意收集、使用和披露个人信息”。德国联邦数据保护专员也表示,考虑数据安全,不排除封禁ChatGPT。

AI发展正在加速,AI治理也需要提速。多位业内专家对人民网记者表示,我国此次出台《管理办法》非常及时,如此详细的管理规定在全球范围内也很鲜见。

中国信息经济学会副理事长、广州大学网络空间安全学院教授齐佳音说,《管理办法》的发布距离OpenAI发布ChatGPT全球公测仅仅过去四个月,有可能成为国际上第一部规制生成式人工智能的规章制度,体现了我国在人工智能治理领域的敏捷反应能力,对于规范和促进AIGC的发展无疑具有重要的引领作用。它将为全球的AIGC监管提供模版,有助于加快人工智能治理制度建设,推动AIGC产业规范有序发展。

强调安全,是为了更好地促进发展

业内专家认为,《管理办法》强调权益保护,主要防范滥用行为。一方面是防范平台滥用人工智能技术手段侵害用户隐私,另一方面是防范用户滥用生成式人工智能侵害他人权益。

人民网董事长、总裁,传播内容认知全国重点实验室主任叶蓁蓁认为,主管部门出台《管理办法》并非要限制人工智能发展,而是通过规章制度来“系好安全带”,加快发展、更好发展。他强调:“在统筹发展与安全的问题上,不发展才是最不安全。”

我国高度重视人工智能技术发展,将其视为一项驱动科技创新、产业升级和生产力提升的战略性新兴技术。近年来,有关部门陆续发布《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《关于支持建设新一代人工智能示范应用场景的通知》等多个政策文件,为人工智能核心技术攻关、产品落地应用以及探索发展新模式新路径提供了重要指导。

在今年的全国两会上,科技部相关负责人亦专门强调,“将把人工智能作为战略性新兴产业和新增长引擎”,在推动人工智能基础研究、应用推广、开放合作等方面继续给予大力支持,并同时推动建立人工智能安全可控的治理体系。

齐佳音指出,此次公布的《管理办法》为AIGC的研发和应用划出了底线和红线,即提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。同时,明确了AIGC的“提供者”对研发和应用负有责任,即利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人需要对包括产品应用、安全评估、算法合法性、数据合法性等承担责任。此外,《管理办法》还为AIGC的研发和应用提供了纠偏机制,包括持续优化纠偏、AIGC标识提示、可审查机制、监管引导机制、终止服务机制和惩戒处罚机制。

“《管理办法》为AIGC的研发和应用第一次立了规矩,使得AIGC的研发和应用有了规制框架,对于规范和引导这一领域的发展具有十分重要的积极作用。”齐佳音说。

专家呼吁进一步重视潜在风险

记者注意到,此次《管理办法》也对一些可能出现的衍生问题提出防范举措,如要求利用生成式人工智能生成的内容“应当体现社会主义核心价值观”、防止各类歧视、“不得利用算法、数据、平台等优势实施不公平竞争”“采取措施防止生成虚假信息”“防止伤害他人身心健康”等。

“这一点非常值得关注。”齐佳音解释说,以ChatGPT为例,其具有强大的类人化自学习能力和交互式文字处理能力,自动化语言生成带有强烈的类人化语言风格,这让ChatGPT有可能摆脱单一的技术身份而拥有了类人化社会角色,成为深度参与和介入社会关系的“代理”。如果不加以限制,AIGC带来的“人-机”社会互动将有可能代替真实的“人-人”社会交往,成为干扰人类真实社会关系的核心要素,这将带来技术的异化和人的异化,是必须要加以防范的。

叶蓁蓁指出,AI平台是有立场的,AI生成的内容是有导向的,所谓“技术中性”是不存在的。因此,无论是喂养人工智能的语料数据,还是模型本身的算法,都必须高度关注其政治方向、舆论导向和价值取向问题。不能放任AI脱离人类视野,不能无视AIGC“生成即传播”特性的潜在风险,要积极探索AI应用和治理之道。

在AIGC价值观培养方面,清华大学教授沈阳建议:应该有更多“人的介入”。其中关键是要为大语言模型提供更多的解释性,这对于修正AI的价值观偏见以及知识成见非常重要。

据了解,目前人民日报社主管、依托人民网建设的传播内容认知全国重点实验室已初步建立了AI意识形态风险评测体系。该体系就采用了人机协作的方式进行测评。

为从源头上防止“技术脱轨”,在制度建设方面,4月4日,科技部在《科技伦理审查办法(试行)》征求意见公告中提出,从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会。

沈阳表示,每一个AIGC平台都应设有伦理审查委员会,以确保其在发生大规模涌现时,符合法律道德和伦理规则。“我们现在对于训练师、心理师、伦理师、提示师的重视程度还不够,需要进一步提升。”

齐佳音指出,随着技术的快速发展,相关规章制需要持续优化,建议后续进一步推出AIGC安全评估规范和管理流程规范。

“应健全研发、审核、应用与安全等多维标准规范体系,完善AIGC技术创新生态。”传播内容认知全国重点实验室科技发展部主任杨松建议,应加快构建国家顶层规划、龙头企业牵头、高校科研机构共同支撑的创新链产业链融合体系,完善数据共享机制,大力推动数据资源汇聚。

本文地址:http://www.ca800.com/news/d_1o4q9ju7nifg1.html

拷贝地址

上一篇:生成式人工智能有规范才有好未来

下一篇:“央馆人工智能课程”规模化应用试点工作交流会在常熟召开

免责声明:本文仅代表作者个人观点,与中国自动化网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容!来源网络如有误有侵权则删。

猜您喜欢

更多精彩信息看点 请扫描以下二维码