原标题:对话|申晓雨:国内在ChatGPT等AI治理上以“软法”为主,后续强制规范可能增加

原标题:对话|申晓雨:国内在ChatGPT等AI治理上以“软法”为主,软法后续强制规范可能增加

出品 | 搜狐科技

作者 | 尹莉娜

ChatGPT火爆之后,原标人们惊叹于它的题对能力之余,对其可靠性、话申合规性同样充满了担忧。晓雨续强

成为“谣言制造机”的国内ChatGPT是否需要担责?训练ChatGPT海量数据是否有你的敏感信息?作为职业收割机的ChatGPT如何影响打工人的权益?中外对于AI技术的立法进展到何种程度?

带着这些问题,搜狐科技对话了天达共和律师事务所合伙人、治理主后制规数据合规业务部负责人申晓雨律师,软法她毕业于北京大学法学院和北京大学光华管理学院,原标获法学学士学位及工商管理硕士学位。题对

近年来,话申申晓雨一直专注于数据合规法律服务,晓雨续强协助多家跨国公司、国内大型企业处理网络安全、治理主后制规数据合规和个人隐私保护法律事务。软法

回溯ChatGPT在内容创造领域令人惊叹的能力,其背后的海量训练数据是重要支撑。但关于ChatGPT的数据来源,一直以来都众说纷纭。

一个普遍认知是,ChatGPT极有可能是通过爬虫的方式抓取互联网上的公开数据,这其中,或许有绕过网站反爬技术措施进行的“恶意爬取”,也有可能不经意间爬取到了自然人的个人信息甚至是敏感信息。申晓雨表示:“这两种情况下,ChatGPT都可能涉嫌违法。”

其中,个人身份证、住址等敏感信息暴露是人们最关注的问题。对此,申晓雨律师解释道,OpenAI已考虑到并采取了相应的技术保护措施,防止ChatGPT在对话中向用户输出任何隐私信息。

不过,从实际操作的角度来看,在互联网环境中,上述防止数据泄露的安全保护机制并不能保障100%安全。同时,ChatGPT的安全保护机制仍存在被黑客破解等因素导致个人隐私暴露的风险。

此外,如果用户在使用ChatGPT的过程中自行输入了个人信息、机密数据或重要数据,这些数据都可能成为ChatGPT的训练数据,如果不设置相应的技术保护措施,放任GPT随意生成回答,未来ChatGPT向其他用户输出的内容中有可能出现敏感信息,导致不良后果。

展开全文

一旦GPT发生数据泄露导致个人隐私或其他合法权益受损,我们认为现阶段个人应当有权向训练、运行并提供ChatGPT服务的主体OpenAI追责。”申晓雨表示。

同样值得关注的还有ChatGPT作为“谣言制造机”的一面。由于技术局限,ChatGPT流畅生成能力背后仍有大量“胡编乱造”的成分,在这种背景下,生成错误信息所带来的后果应该由谁担责,是需要明确的问题。

在申晓雨看来,ChatGPT的用户应该对其生成结果的准确性有合理预期。同时,现阶段ChatGPT作为一项技术或工具,在法律上不应具有独立主体地位。如果用户自己使用GPT并基于GPT所生成的错误信息进行决策,由此造成的损失,用户应当自负风险

在ChatGPT等生成式AI已经有落地成果的新闻领域,由ChatGPT生成的失实新闻,侵权责任的主体也落到的媒体自身,这种法律解释,无疑给ChatGPT的商业化前景蒙上了阴影。

应用之外,ChatGPT作为“职业收割机”的身份也引发了打工人的担忧。在申晓雨看来,根据目前GPT实际处理法律领域相关专业问题的表现来看,ChatGPT并未展现出超过同类AI的能力,对于特定要求下法律法规检索的精确度较低,本质上更接近一个聊天机器人。

“ChatGPT突出的优势是在回答的语感和句式编排上更贴近人类的语言和交流习惯,但现阶段并不具备针对专业领域问题提出精准分析和结论的能力。因此,目前来看GPT对法律从业者产生的威胁较小。”申晓雨说道。

抽离具体事件中的权责问题,站在更高视角的AI治理问题下,申晓雨也谈及目前我国和欧美之间的异同之处。

申晓雨介绍称,实际上,我国为促进AI技术的发展,自2017年起就颁布了许多政策。

在产业政策方面,我国从2017年起就颁布了例如《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020)》《国家新一代人工智能创新发展试验区建设工作指引》等一系列的政策性文件,这些政策性文件都是以促进AI产业发展为导向,鼓励AI技术的研发和使用。

不过,近年来,算法、深度合成技术以及人脸识别也成为了我国对AI技术监管的重点领域。《关于加强互联网信息服务算法综合治理的指导意见》以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等数部强制性规定相继出台,有效规制了大数据杀熟、深度伪造等AI带来的风险,而ChatGPT提供的“智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务”已被纳入规制对象。

申晓雨表示:“总体来看,我国一直以来对待AI的监管态度以促进产业发展为基本导向,对于大多数领域的AI以‘软法’规制为主,但近年来,就某些重点技术领域、行业领域,我国出台了专门的强制性规范,而且未来这类规范的数量可能逐步增加。”

同时,申晓雨也明确提到,“目前我国缺乏专门规范AI的顶层综合性立法,对于AI技术和产业发展中的基本问题,我国的监管环境并未进行解答,包括尚未明确AI产业中涉及的各方主体(例如,AI设计者、AI使用者、AI生成内容使用者)的关系以及相应的权责划分,AI技术与公民/消费者之间的关系和问责机制也有待进一步完善。”

相比之下,美国对AI的监管态度上显得更为激进,相关规范性文件中会强调AI是美国的优势产业,出台的监管原则基本没有强制性规范,也往往不会直接涉及AI的具体监管规则。“美国已将人工智能确定为国家安全的优先事项,并为国防和情报应用的人工智能研究和开发进行了大量投资。”

相较中国和美国在AI监管上的克制,欧盟则展现出与中美不同的监管态度, 2021年即公布了《人工智能法案(草案)》(Artificial Intelligence Act),在世界范围内率先推进关于规范AI的统一立法,展现出欧盟为人工智能设定全球标准的意图。其中,对于被归类为“不可接受的风险”水平的AI系统,将完全禁止其AI技术的应用。

申晓雨总结称:“尽管在监管态度上有所差异,但在未来的发展方向上,世界各国已基本达成共识,即AI应当服务于人类。因此,我们判断,不同法域的监管环境最终都会帮助AI朝着对人类更有利的方向发展,而各法域也都需要在监管规制和促进发展之间,根据不同阶段的社会利益需求和AI发展水平不断寻找适合本法域的平衡点,在这一过程中,监管可能会在趋严、趋松间调整,由此在AI技术的发展上呈现出一定的阶段性和反复性。

以下为对话原文,经编辑:

一、作为「谣言制造机」的ChatGPT

搜狐科技:根据研究机构测试发现,如果对ChatGPT提出充斥阴谋论和误导性叙述的问题,它能在几秒钟内改编信息,产生大量令人信服却没有来源根据的内容。在未来会商业化的过程中,如果客户公司因为ChatGPT所生成的错误信息导致企业财务受损,从法律上是如何解释的?

申晓雨:ChatGPT(以下简称“GPT”)作为一个聊天AI,现阶段不具备自主意识。从GPT的工作原理来看,GPT生成的内容更多是在语感和句式编排上模仿人类,而并不能保证其回答的精准性。即使对于同一个问题,它也可能会因为训练数据的不同以及用户提问方式的不同,作出不同的回答。

对于GPT的上述技术特点,GPT的使用者应该有所了解并有合理预期,换言之,目前GPT依然需要自然人向其输入指令才能生成相应内容,无法做到自问自答。因此,我们认为,现阶段GPT在法律上不应具有独立主体地位,应定性为一种由人使用的工具。

如果某个公司自己使用GPT并基于GPT所生成的错误信息进行决策,由此导致企业财务受损,应当理解为具有独立主体地位和法律权利能力的法律主体,参照工具生成的信息进行决策而遭受损失,该公司应当自负风险。

搜狐科技:ChatGPT一个可见的应用是在新闻写作上。如果上市公司股价因ChatGPT生成的歧义新闻或错误新闻影响,该如何定责?

申晓雨:在把GPT视为一种工具的前提下,这个问题实际上是民法领域传统的侵权责任认定的问题,即新闻发布者是否因发布虚假或错误新闻对公司造成侵权,这需要判断是否存在侵权责任、损害后果,以及侵权责任和损害后果之间的因果关系是否成立。

如果上述三个要素确定,按照我国《民法典》规定,受影响的企业有权要求新闻发布者承担侵权责任。如果新闻是网络用户在网络上发布的,那么网络服务提供者如果没有按照法律规定履行必要的通知、删除等义务,还可能会承担连带责任。

另一方面,我们还有必要考虑行政责任。基于GPT所涉及的新型技术的应用,该服务的提供者在行政监管方面,会面临更多的义务和责任。

GPT生成的新闻资讯类文本涉及深度合成和算法推荐技术的应用。目前我国已实施《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》,用于防范算法和深度合成服务带来的风险。

其中,《互联网信息服务深度合成管理规定》就提供和使用深度合称技术进行内容编辑所应当履行的义务做出明确规定。

例如,其第6条第2款就规定,“深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。”

第17条规定,“深度合成服务提供者提供智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。

此外,根据《互联网信息服务深度合成管理规定》,深度合成服务提供者还需要承担对深度合成内容进行审核和管理、建立健全辟谣机制等义务。

《互联网信息服务算法推荐管理规定》也从算法推荐监管角度做出类似规定。例如,其第13条规定,“算法推荐服务提供者提供互联网新闻信息服务的,应当依法取得互联网新闻信息服务许可,规范开展互联网新闻信息采编发布服务、转载服务和传播平台服务,不得生成合成虚假新闻信息,不得传播非国家规定范围内的单位发布的新闻信息。”如果违反上述法律法规所规定的义务,相关服务提供者将被主管部门依法处罚;造成严重后果的,依法从重处罚。

对于使用者而言,如果利用GPT发布虚假新闻,构成违反治安管理行为的,比如捏造事实诽谤他人的,由公安机关依法给予治安管理处罚;更甚者,如构成犯罪的,还会被依法追究刑事责任。

二、ChatGPT的自身合规性

搜狐科技:据您所了解,ChatGPT所收集的训练数据合法吗?

申晓雨:GPT的训练数据来源于广泛存在于互联网的各类文本(包括但不限于新闻、记事、社交媒体等平台内的海量文本信息)。虽然以我们目前了解到的信息,无法判断GPT获取训练数据的具体方式及其细节,但GPT极有可能通过爬虫的方式抓取互联网上的公开数据。使用爬虫技术抓取训练数据涉及到以下合法性争议:

(1)爬取数据的合法边界:尽管目前业内普遍适用了类似于robots协议的各种机制来保障爬取数据合法,但大多数情况下仍无法清晰界定合法与违法的边界。通常而言,绕过技术措施进行的恶意爬取是违法的,但更多情况下,爬取数据的合法边界都与国家的产业政策相关。例如,我国的产业政策倾向于保护企业的数据资产,因此超过合理边界的爬取行为极有可能违反我国《反不正当竞争法》构成不正当竞争行为,我国近年来已有较多判例支持了此观点。

(2)爬取数据中可能包含个人信息:GPT在互联网爬取信息,有可能爬取到自然人的个人信息甚至是敏感个人信息,在目前世界各国强调个人信息保护并积极建立相应个人信息保护制度的大背景下,GPT对个人信息的爬取有可能构成对个人隐私权或个人信息权益的侵害,具体而言:

① 爬取未公开个人信息直接侵犯公民的隐私权或个人信息权益,例如,我国《民法典》第111条明确规定:“自然人的个人信息受法律保护。任何组织或者个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。”

② 爬取已公开的个人信息在特定情况下仍可能侵犯个人信息权益,例如,我国《个人信息保护法》第27条规定:“个人信息处理者可以在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息;个人明确拒绝的除外。个人信息处理者处理已公开的个人信息,对个人权益有重大影响的,应当依照本法规定取得个人同意。”如在个人明确拒绝的情况下爬取公开信息,或爬取对个人权益有重大影响的公开信息未取得个人同意的,将构成对个人信息权益的侵犯。

③ 此外,在使用GPT过程中输入和输出的内容,可能也会成为训练数据,如果用户在使用GPT的过程中输入了个人信息,这属于对个人信息的收集和使用,可能需要满足告知同意的要求。例如,根据我国《个人信息保护法》的相关规定,GPT的运营者和服务提供者OpenAI应就上述个人信息处理的目的、方式、收集个人信息的种类等向个人完整、清晰、易懂地进行告知,并且,除非具有其他合法基础,否则应当就处理个人信息取得个人同意,如果涉及敏感个人信息的,还应取得单独同意。

搜狐科技:由于ChatGPT的训练数据庞杂,有身份证号等隐私信息可能通过ChatGPT暴露,如何看待这种现象,用户是否有权追责?

申晓雨:对于GPT可能在回答中泄露个人隐私的情况,OpenAI已考虑到,并采取了相应的技术保护措施防止GPT在对话中向用户输出任何隐私信息(包括但不限于自然人的身份证号码等)。

但在互联网环境中,上述防止数据泄露的安全保护机制并不能保障100%安全,GPT的安全保护机制仍存在被黑客破解等因素导致GPT泄露个人隐私的风险。

此外,如果用户在使用GPT的过程中输入了个人信息、机密数据或重要数据,这些数据可能成为GPT的训练数据,如果不设置相应的技术保护措施,放任GPT随意生成回答,未来GPT向其他用户输出的内容中有可能出现上述信息,导致不良后果。

而一旦GPT发生数据泄露导致个人隐私或其他合法权益受损,我们认为现阶段个人应当有权向训练、运行并提供GPT服务的主体(可以是个人或组织,目前为开发GPT的机构OpenAI)追责。我国作为强调保护个人信息的法域,在立法、执法和司法实践中都支持了上述观点:

(1)在立法方面,我国《网络安全法》第21条明确规定国家实行网络安全等级保护制度,网络运营者应当按照网络安全等级保护制度的要求,履行安全保护义务。《数据安全法》《个人信息保护法》也都明确规定了数据处理者的数据安全、个人信息安全保护义务。

(2)在行政执法方面,自2018年起,针对网络乱象,我国公安机关开始实行“一案双查”制度,即在对网络违法犯罪案件开展侦查调查工作时,同步启动对涉案网络服务提供者法定网络安全义务履行情况的监督检查。

(3)在司法方面,我国《个人信息保护法》第69条第1款明确规定:“处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。”基于上述法律确定的错推定原则,司法中对数据处理者课以倒置的举证责任,数据处理者必须自证没有过错才能免除相应责任。

三、ChatGPT作为「职业收割机」

搜狐科技:作为从业者,您怎么看待ChatGPT对您工作的影响,它将对哪种类型的法律从业者产生威胁?具备哪些特点的从业者不会被取代?

申晓雨:根据目前GPT实际处理法律领域相关专业问题的表现来看,GPT并未展现出超过同类AI的能力,对于特定要求下法律法规检索的精确度较低,本质上更接近一个聊天机器人。换言之,GPT突出的优势是在回答的语感和句式编排上更贴近人类的语言和交流习惯,但现阶段并不具备针对专业领域问题提出精准分析和结论的能力。

因此,目前来看,GPT对法律从业者产生的威胁较小。但是,不排除随着科技的发展,GPT将逐步提高回答的精准度,可以代替人类完成一些初级的法律检索、汇总工作,这种情况下,仅能进行基础检索工作、不具备高级的逻辑分析和思维能力的法律工作者将面临被取代的风险,而具备高级的逻辑分析能力、较强思维能力(包括但不限于抽象思维能力、创造性思维能力)的从业者的可替代性则相对较低。

搜狐科技:如何看待ChatGPT可能导致的“下岗潮”?

申晓雨:短期内GPT无法取代大部分专业下人类的工作。但是,GPT所体现出来的趋势和技术的加速迭代发展也确实给我们做出提醒:对于各行各业中的工作者,尤其是从事创造性水平较低、简单重复劳动的工作者,应具有危机意识,随着AI智能水平的逐渐提升,这些工作可能将首先被AI取代。

四、再论「技术中立」

搜狐科技:目前,不少犯罪分子利用ChatGPT改进或优化恶意代码,再次引发了关于技术中立论的讨论。您怎么看待这种生成的恶意代码?如果因此导致了人身或财产损失,如何明确这其中的权责划分?

申晓雨:工具、代码无罪,而背后意图生成和/或使用这些恶意代码的人“有罪”。因恶意代码导致的人身或财产损失,应由生成和/或使用这些恶意代码的自然人或组织承担相应责任。

技术和工具往往都具有两面性,根据使用技术/工具的人的意图和目的的不同,技术/工具既有可能造福人类,也有可能给人类社会带来危险。

如果仅仅因为一项技术具备作恶的可能性就封杀这项技术,从长远来看将会阻碍社会技术和文明的发展。

因此我们支持技术中立的观点,但必须强调,技术不能脱离人类的管控而毫无边界地发展,技术的发展应当遵循社会基本规范、尊重伦理道德,确保可控可信。这一点也是目前整个国际社会都普遍认同的,各国也都通过立法、政策等做出了相应的规制。

搜狐科技:公安提示,目前境外有人使用ChatGPT创建一个完整的感染链:不同以往的广撒网式的网络钓鱼,它在提问者的诱导下可以生成针对特定人或者组织的“鱼叉式”网络钓鱼邮件。如何看待这种现象?是否应该设立ChatGPT禁用名单?

申晓雨:关于“是否应该有ChatGPT的禁用名单”,禁用名单或黑名单实际上都是一种失信惩戒措施,是我国建设社会信用体系的举措之一。

根据国务院发布的《社会信用体系建设规划纲要(2014—2020年)》,互联网应用及服务领域信用建设方面,国家建立网络信用黑名单制度,将实施网络欺诈、造谣传谣、侵害他人合法权益等严重网络失信行为的企业、个人列入黑名单,对列入黑名单的主体采取网上行为限制、行业禁入等措施,通报相关部门并进行公开曝光。

《国务院办公厅关于加强个人诚信体系建设的指导意见》也提出对重点领域严重失信个人实施联合惩戒,将电信诈骗、网络欺诈等严重失信个人列为重点监管对象,依法依规采取行政性约束和惩戒措施。今年1月1日期开始施行的《全国失信惩戒措施基础清单(2022年版)》明确规定,将实施网络欺诈、造谣传谣、侵害他人合法权益等严重网络失信行为的企业、个人依法依规纳入网络信用黑名单,将实施电信网络诈骗活动的或者为他人实施针对境内的电信网络诈骗活动提供产品、服务等帮助的单位依法依规纳入电信网络诈骗严重失信主体名单。

在反网络电信诈骗领域,我国《反网络电信诈骗法》第三十一条就规定,“任何单位和个人不得非法买卖、出租、出借电话卡、物联网卡、电信线路、短信端口、银行账户、支付账户、互联网账号等,不得提供实名核验帮助;不得假冒他人身份或者虚构代理关系开立上述卡、账户、账号等。对经设区的市级以上公安机关认定的实施前款行为的单位、个人和相关组织者,以及因从事电信网络诈骗活动或者关联犯罪受过刑事处罚的人员,可以按照国家有关规定记入信用记录,采取限制其有关卡、账户、账号等功能和停止非柜面业务、暂停新业务、限制入网等措施。……”法律有滞后性,上述规定中罗列的诈骗手段、诈骗工具具有法律制定和发布时的局限性。随着技术的发展,如果GPT成为诈骗活动的工具,那么按照上述法律文件规定的原则,对使用这种工具的人员,也可以采取列入黑名单、限制或禁止其使用GPT或相关产品、服务、技术等惩戒措施。

而且,基于我国在AI伦理规范方面所提出的“责任到人”(坚持人类是最终责任主体)的原则,建立GPT的禁用名单,也正是对使用者、而非技术本身,采取惩戒措施、贯彻落实这一原则的体现。

五、AI的技术立法

搜狐科技:目前,国内针对AI技术应用监管有哪些相关的法条?监管重点在哪些方面?您是否有哪些建议?

申晓雨:在产业政策方面,我国从2017年起就颁布了一系列关于AI的政策性文件,例如《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020)》《国家新一代人工智能创新发展试验区建设工作指引》等,发文部门涵盖了国务院、发改委、工信部、科技部、信安标委在内的多个部门。这些政策性文件以促进AI产业发展为导向,鼓励AI技术的研发和使用。在此背景下,上海、深圳积极响应,出台了地方性法规促进当地AI产业发展,其中《深圳经济特区人工智能产业促进条例》作为我国AI领域的首次地方性立法,更是明确了对人工智能产业实行包容审慎监管的方针。

落实到对特定技术领域、行业领域的具体监管时,我国在大多数领域出台了相应的指导性文件,同样是以鼓励产业发展为主,其中在自动驾驶、智慧诊疗等应用AI时间较长的领域,出台了一些推荐性标准,例如《汽车驾驶自动化分级》《人工智能辅助诊断技术管理规范》等。

但同时我们注意到,近年来,算法、深度合成技术以及人脸识别成为了我国对AI技术监管的重点领域,《关于加强互联网信息服务算法综合治理的指导意见》以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》等数部强制性规定相继出台,这是我国充分考虑到近年来大数据杀熟、深度伪造等AI带来的风险,分别针对算法和深度合成技术进行的立法活动,而GPT提供的“智能对话、智能写作等模拟自然人进行文本的生成或者编辑服务”即已被纳入规制对象。

此外,早在2021年,最高人民法院专门就人脸识别出台了司法解释《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,旨在进一步规范人脸识别技术的应用。我们预测,未来针对特定领域出台专门的强制性监管规范的趋势将可能延续下去。

总体来看,我国一直以来对待AI的监管态度以促进产业发展为基本导向,对于大多数领域的AI以“软法”规制为主,但近年来,就某些重点技术领域、行业领域,我国出台了专门的强制性规范,而且未来这类规范的数量可能逐步增加。

同时需要指出的是,目前我国缺乏专门规范AI的顶层综合性立法,对于AI技术和产业发展中的基本问题,我国的监管环境并未进行解答,包括尚未明确AI产业中涉及的各方主体(例如,AI设计者、AI使用者、AI生成内容使用者)的关系以及相应的权责划分,AI技术与公民/消费者之间的关系和问责机制也有待进一步完善。

考虑到我国是AI大国,现阶段AI技术发展迅速,AI带来的社会问题也将日趋严重,我们建议加速推进我国基础性、原则性的AI立法,同时,在一些已经发生或在可预见的未来可能发生社会风险的AI应用领域,加速推进针对特定AI应用场景的规范,以期在充分保障社会和个人的安全的同时,最大化对AI产业发展的促进作用。

搜狐科技:美国在AI技术监管上与国内有哪些差异?

申晓雨:总体来看,中国和美国在AI技术监管上有许多相似之处,双方的差异主要存在于以下方面:

(1)监管模式的不同

与中国对AI的监管主要由国家统一制定规范和指导性文件不同,美国的对于AI的监管模式更为分散。具体而言,联邦政府制定AI监管的指导原则,没有全面的联邦立法;各个州政府根据各自的情况对具体事项制定相应的规范(包括对AI系统的透明度和问责制提出要求),没有国家层面统一协调的AI监管框架(包括涵盖私营和公共部门的AI开发、销售和部署的综合立法)。

在缺乏专门的AI立法的情况下,对于一些大的方面的问题,美国联邦层面更倾向于对基础性法律进行解释适用,而中国倾向于国家层面对特定领域进行分散补充立法。

例如,联邦贸易委员会(FTC)在内的执法机构在执法时往往需要尝试依据一些基础性规定,对AI系统在私营部门的部署进行规制,其依据包括《联邦贸易委员会法》(the FTC Act)、《公平信用报告法》(the Fair Credit Reporting Act)和《平等信用机会法》(the Equal Credit Opportunity Act),进行算法规制时,FTC可能会对上述基础法律的条文进行解释以适用;而中国的监管部门会针对特定行业或技术领域进行专门的立法(例如《互联网信息服务算法推荐管理规定》)。

(2)监管态度的不同

美国和中国都是以促进AI产业发展为基本导向,不同的是,美国较中国的态度更为激进,换言之,监管/立法会呈现出较为克制、谨慎的态度,美国的相关规范性文件中会强调AI是美国的优势产业,美国应维护国家在AI领域的领导地位此外,美国政府已将人工智能确定为国家安全的优先事项,并为国防和情报应用的人工智能研究和开发进行了大量投资。

因此,联邦政府层面出台的监管原则基本没有强制性规范,也往往不会直接涉及AI的具体监管规则,例如《维护美国在人工智能时代的领导地位》《2020国家人工智能倡议法(草案)》《产生人工智能网络安全法(草案)》强调明确AI在美国应用的优势和障碍,AI为国家的优势产业,鼓励和促进AI技术的发展应用。此外,NAIRR(国家人工智能研究资源中心)在《加强美国人工智能创新生态系统并使之民主化:国家人工智能研究资源的实施计划》(Strengthening and Democratizing the U.S. Artificial Intelligence Innovation Ecosystem:An Implementation Plan for a National Artificial Intelligence Research Resource)中提倡作为一个国家,美国应扩大获得推动AI的资源,为更多的美国人提供追求AI研发的途径。

(3)监管重点的不同

中美两国都重视算法规制,美国针对算法权力和人工智能黑箱问题的监管治理,出台了《2019年算法问责法案》(Algorithmic Accountability Act of 2019)、《2021算法正义和在线平台透明度法草案》(Algorithmic Justice and Online Platform Transparency Act of 2021)、《2022算法问责草案》(Algorithmic Accountability Act of 2022),以确保算法透明。此外,考虑到其特殊国情,美国还较为关注算法中的种族歧视问题,FTC根据《平等信贷机会法》认定销售带有种族歧视的算法违法。

搜狐科技:您认为,监管环境会如何影响ChatGPT等AIGC应用的未来走向?

申晓雨:GPT是现阶段AI技术的典型代表,GPT在未来发展的走向也在一定程度上代表了整个AI技术的发展走向。总体上看,各法域AI监管环境与其各自的AI产业政策深度绑定,监管环境会对未来人工智能产业的发展方向起到至关重要的作用。

中国和美国一直以来都鼓励AI产业发展,因此对待AI监管立法的态度较为克制和谨慎。在相对宽松的监管环境下,由于AI研发、布署、投放市场时的限制较小,AI企业更容易进行AI实验和创新,利用AI创造可观收益,而这些AI又可以回馈社会,给各行各业的生产赋能。这样的政策支持使得美国和中国AI产业快速发展,一跃成为了全球AI企业数量最多的两个国家。但与此同时,也伴随着恶用AI技术导致社会公共利益、企业和个人合法权益遭受侵犯等现实风险,而且,因为缺乏相应的监管规范,AI产业中的权利主体和责任主体在某些场景下无法明晰,一旦需要追责,责任主体可能难以确定。

相较中国和美国在AI监管上的克制,欧盟则展现出与美国和中国不同的监管态度,早在2021年即公布了《人工智能法案(草案)》(Artificial Intelligence Act),在世界范围内率先推进关于规范AI的统一立法,展现出欧盟为人工智能设定全球标准的意图。《人工智能法案(草案)》以保护人的基本权利为出发点,以AI系统对公民基本权利的威胁程度对系统进行划分,对不同等级的AI系统提出了不同的合规要求,并施以不同强度的监管,其中对于被归类为“不可接受的风险”水平的AI系统,将完全禁止其AI技术的应用,其规制的严苛程度可以直接对标《通用数据保护条例》(GDPR),行政处罚的力度甚至比GDPR更强。

在较为严格的监管环境下,AI企业将面临更高的合规成本和法律风险,容易导致AI研发变得保守,技术迭代变缓,AI对社会生产的赋能效用也将降低。但好处是,AI的可控性会提升,因为AI恶用造成的现实风险则相应降低,同时因为权责机制清晰,AI产业带来利益和责任的分配确定性更强。

虽然现阶段,中美两国和欧盟在AI监管上的态度不尽相同,但在未来的发展方向上,世界各国已基本达成共识,即AI应当服务于人类。因此,我们判断,不同法域的监管环境最终都会帮助AI朝着对人类更有利的方向发展,而各法域也都需要在监管规制和促进发展之间,根据不同阶段的社会利益需求和AI发展水平不断寻找适合本法域的平衡点,在这一过程中,监管可能会在趋严、趋松间调整,由此在AI技术的发展上呈现出一定的阶段性和反复性。返回搜狐,查看更多

责任编辑:

发表评论

您的电子邮件地址不会被公开. 必需的地方已做标记 *