然而,面向数字时代,人工智能法学人才培养还面临三大关键问题:其一,如何构建匹配应用导向强、迭代速度快、技术壁垒高知识特点的教学资源。
合乎法治的应对方式是努力优化法律规定和监管举措,在允许市场健康发展的基础上,确保灰色手段因为合规风险而日益被市场自主淘汰。其中,劳动力就包含了劳动者的能力和动机。
当法律鼓励强权剥夺他人劳动成果或者肆意毁约时,这个系数就是负的,人们就越可能通过科技或者其他能力去豪夺巧取他人的财物,综合起来对经济的伤害就越大。有效契约提升行为预期和信心法治不仅保障过去,同样会激励未来。然而,动机对于经济发展的重要性,经常被有意无意忽视或者轻视了。简言之,让国人对经济未来有信心,这个问题从来没有像当前这样迫切。一个方面的逻辑是,基于财产权利的法律制度及其运行,法治可以保障人们过去得到的劳动成果或者财产利益。
这个简单道理虽不是理解经济发展的全部奥秘,但也是关键原理之一。政府或许要发挥走遍千山万水,想尽千方百计,说尽千言万语,吃尽千辛万苦的精神,让法治中国建设做得千真万确。但是,信访行为一旦失序,则会对法治形成冲击甚至破坏。
在我国,信访问题一直是一个重要的社会问题。在少数地区,由于应有的救济制度不够健全,致使一些人走上了信访之路,个别信访部门在处置群众诉求时一概作出信访答复,用信访程序代替法定程序,未能厘清信访与其他法定程序之间的受理范围,也造成信访与其他部门职能重叠、分工不明、效率不高乃至互相推诿的现象。首先,信访处置缺乏合理分流。同时,信访的法律和政策协商功能,可通过完善人民代表大会制度的群众沟通和监督机制来解决。
从初信初访事项的受理、办理、复查、复核直至送达的各个环节,均要在规定期限内向信访人出具书面文书、履行签收手续并录入信访信息系统。现阶段,信访群众普遍具有维权意识,也常常懂得拿起法律武器保护自己,但由于法律制度系统复杂,不少信访群众的法律知识不足以支撑维权目的和行为,不懂得、也不习惯如何依法行使权利,存在想当然有病乱投医的情况,还有的诉求合理不合法,对处理意见不理解、不接受,长期上访。
我国的《信访工作条例》构建了包括监督责任、监督机制、责任追究在内的监督体系。健全监督机制,推进监督追责法治化有效的监督是确保责任落实的必要条件。坚持法定途径优先原则,厘清信访与调解、仲裁、诉讼、行政裁决、行政复议等法定途径之间的受理界限,将涉及民事、行政、刑事等诉讼权利救济的信访事项从普通信访体系中分离出来,引导至相应的法定程序,由相关政法部门依法处理,实现矛盾纠纷多元化解机制协同发力。通过落实程序性和可操作性的工作要求,压实属地和相关主体的责任,推动及时就地解决信访问题。
相关制度性规定尚未及时到位,对于信访化解社会矛盾的补充功能和进行社会管理的兜底功能缺乏相应法律依据的,应适时通过立法程序及时回应社会关切,尽量减少立法滞后带来的解决信访问题的制度性障碍。对于已经发生的矛盾纠纷要综合运用法律、政策、经济、行政等手段,采取协商、调解、疏导、听证、教育、帮扶、救助等多元化方式方法,努力把问题解决在信访之前、网格之中、辖域之内。社会矛盾纠纷的复杂性决定了解纷过程的集约化和解纷要求的多样化。另一方面,规范信访人的信访活动。
针对信访处置缺乏分流、信访与诉讼职能混淆等问题,一方面,明晰诉访分离、依法分类处理。其次,法治意识有待加强。
依法规范办理,推进办理法治化为提升信访办理的规范性,一方面,厘清制度边界,优化顶层设计。信访人必须依法逐级走访,理性反映诉求。
但是当前,随着经济社会的快速发展,土地流转、生态环境、企业改制等纠纷日益增多,许多领域的制度尚在走向成熟定型的过程之中,社会矛盾和风险复杂多变,信访总量仍然在高位运行,对处在回应群众诉求、处置社会矛盾一线的信访工作带来诸多挑战。对合理诉求已经解决仍反复投诉、恶意登记的纳入信用管理,引导群众依法诚信信访。信访制度作为一项具有悠久历史渊源及社会基础的政治参与和民意表达制度,在不同历史阶段都发挥着沟通国家和百姓关系的纽带作用。另一方面,在一些地方仍存在截访、压访的情况,存在接回来、压下来、不出省、不进京就是硬道理的认识误区,甚至存在信访数量排名、信访指标化的现象过于严格的数据合规要求将会影响我国生成式人工智能技术的研发和产业应用。同时,也准备好一套有效管控、及时纠错的相应监管机制。
进入专题: 生成式人工智能 人工智能 。但是,与之前的互联网技术相比较,生成式人工智能技术的研发和应用也将会带来各国更为激烈的科技竞争,从各种智能生成产品来看,美国的ChatGPT已经领先并将成为生成式人工智能产品的基础设施,许多领域的衍生产品已经诞生,中国要在这一领域有所突破创新,一定要有相对宽松的法律政策环境和技术生态建设,不能再像传统信息产业领域的软、硬件技术那样,始终无法做到自主可控。
在对待智能产品深度学习中涉及到的知识产权问题,特别是具有著作权的各类作品的学习问题上,可以采取注释说明的方式,表明大数据的来源或者具有可追溯的透明机制即可。近日,欧盟提出了针对ChatGPT等服务进行监管的提案,重点提出生成式人工智能的新的版权规则。
并且,在国家提倡在大数据交易中心进行数据取得,数据作为市场要素进行流通的过程中,即使原始数据来源合法,也很难保证数据转用的合法性,生成式人工智能产品的预训练数据可能几易其手,中间涉及到多个数据处理者,在这样复杂的数据流转中,将责任归结到人工智能产品服务提供者过于简单。在欧盟议会《人工智能法案》的最近讨论中,知识产权以及隐私等数据合规问题也再次被强调,但欧洲立法的出发点是对抗性的,甚至是为了设置美国公司进入欧洲市场的贸易壁垒。
对于个人信息中涉及到的隐私权和其他人身权可以按照前述三部法律来进行合规。这一提案得到一些共识,有望成为欧美在智能领域产品应用的另一场博弈。 数据来源合法性是数据产品合规的必要条件,若数据来源不合法不合规,该数据产品将无法进入市场应用阶段。大数据每时每刻都在变化,智能式学习就是要求能够基于事物变化做出判断。
我国对人工智能的监管目的是规范和促进性的,应当以扶持一批生成式人工智能的公司开展竞争性创新为出发点,在智能技术应用领域里,走出一条自主可控的创新路线和产业生态之路。2. 第七条第二款(四)要求数据真实、准确、客观、多样这一要求不切实际。
从《征求意见稿》第二条可见,面向公众提供服务的,包括生成式人工智能产品的研发者和利用者,因此人工智能服务提供者并不一定是该人工智能技术的开发者,并不一定参与人工智能的数据训练、优化活动,因此合法性义务置于提供者身上的合理性有待讨论。第七条第二款(二)对数据不得含有知识产权内容显然过于苛刻,海量的训练数据不可避免包含受版权法保护的内容,可以考虑采用互联网诞生之初给网络服务商设置安全港责任的做法,待生成式人工智能产品实践一段时间再做严格监管调整。
该规则要求,根据生成式人工智能被认为的风险等级进行分类,要求生成式人工智能的公司必须披露用于开发其系统的任何受版权法保护的资料。生成式人工智能产品的预训练数据不可能做到完全准确,就如同自然人面对社会信息也无法保证事前做出真假虚实的判断,生成式人工智能技术和自然人面对的是同一个世界,学习的也是同一大数据内容,只是学习的速度和广度不同。
3. 第七条第一款责任主体为人工智能服务提供者,归责对象过于简单。对于恶意侵害他人知识产权的行为,现有立法完全可以规制。我国应当有不同的思路,我国有大数据天然资源,有广阔的市场,应当让生成式人工智能技术有更多机会基于我国大数据资源的训练。正因如此,我国在生成式人工智能技术的研发和应用上应当奋起直追,在立法和政策上留有一定的发展空间,以事前的自律守正、事后的公正处罚为监管基础。
因此,对于人工智能这一全新的产业发展领域应当本着良法善治的立法理念,尊重调整对象本身发展的客观规律,尽量给产业以充分的竞争机会。美国其实早在十几年前就开始了生成式人工智能的大数据学习,当初也都是基于公开的文献数据,并没有受到知识产权和数据合规的严格要求。
面对复杂的大数据样本,生成式人工智能技术的研发者应当秉持守正创新,不主动侵犯他人知识产权和人身权,尽到基本的注意义务即可,不需要承担无过错的产品责任,也无法做到无瑕疵担保。即使欧盟的本意是对ChatGPT进行监管,但这一要求也仅仅属于透明度原则适用范围,还没有提到归责层面。
在目前我国已经实施《网络安全法》《数据安全法》《个人信息保护法》的背景下,生成式人工智能产品的应用一定要符合这些法律。 张平,北京大学法学院教授,北京大学人工智能研究院双聘教授。
发布评论