一流信息监控拦截系统








一流信息监控拦截系统提醒您:很抱歉,由于您提交的内容中或访问的内容中含有系统不允许的关键词或者您的IP受到了访问限制,本次操作无效,系统已记录您的IP及您提交的所有数据。请注意,不要提交任何违反国家规定的内容!本次拦截的相关信息为:性爱
e="FONT-SIZE: 14pt; FONT-FAMILY: 宋体; mso-spacerun: 'yes'; mso-font-kerning: 1.0000pt">

第三个问题:人工智能作为“工具”,“虚拟人”、“独立的人”与生成物的关系。将人工智看成工具,很容易理解,这里我们不需要再赘速。虚拟人是指法律设计人工智能为“人”的身份来进行处理,与法律上“拟制的人”具有很大的区别,因为“拟制的人”是真实存在的主体。与此相适应,如果把人工智能看成“虚拟人”,则把所有的权利利益赋予人工智能。总之,目前关于人工智能的定性问题,在学界还处于热议当中,还没有一个统一的说法。

第四个问题:生成物的权利归属。如果将人工智能作为辅助工具,则生成物的权利可归属于设计开发者,或者所有权人、或者使用权人、或者人工智能自身以及以上几位权利人共同所有。在判断生成物的归属问题时,可以依据创作主义、契约主义、投资主义。创作主义由谁创作了作品,则权利归属于谁;契约主义是指在创作之前先约定好权利的归属,而后依据契约来判断权利的归属;投资主义是指创作的过程是由谁投资的,则权利归属于投资人。如果将人工智能作为“虚拟人”,我们可以把人工智能的生成物看成是民法学意义上的“孳息”。关于孳息的分类,我认为目前还不太适合将生成物明确为法定孳息或者是自然孳息。如此一来,人工智能的生成物应当归属于其所有人。如果将人工智能作为“独立的主体”,则其生成物应当被看成为公共物品。然而,从投资主义的角度来看,生成物进入公共领域,势必会与投资者的出发点相悖;并且,生成物一旦被成就,从法律意义上来讲,也应当属于“独立的个体”。综上,关于生成物的权利归属问题,目前还存在较大的研究空间,相关的法律制度也应该尽快制定与完善。

第五个问题:不给予生成物的后果。不仅会引发法律纠纷,还会导致人工智能设计制造秩序混乱。

第六个问题:关于著作权保护的问题,就是生成物的保护期限和权利救济问题。如果把人工智能当成工具,很简单,则比对自然人的著作权保护方式即可;如果当成“独立的个体”,关于保护期限的确定和救济方式,现在我们也无法确定。

第七个问题:对于人工智能的其他保护方式,主要是注册保护模式和反不正当竞争法的保护模式。日本学者多主张注册保护模式,他们认为先不要急于对人工智能定位,将所有的人工智能进行注册保护即可。质言之,把人工智能看做为一种客观现象。反不正当竞争法保护模式的前提是要获得权利主体的授权,尊重市场主体的经济权益。还有就是涉及到人工智能自身的问题。比如人工智能自身涉及到的专利问题该如何协调,人工智能中可能包含的商业秘密时该如何维护,以及人工智能与个人隐私的保护冲突等。还有就是人工智能的未来,随着人工智能领域的发展,是否影响到人类的正常生活。当然我跟大家讲的这些可能的挑战都是我看的一下资料总结的,都不是成熟的观点,现在也没有一个成熟的观点,我认为大家现在的观点都是在有限的范围内来讲的,还没有形成广泛的共识。这些问题都是今后可能出现的问题,目前还没有好的解决方法。

四、人工智能自身涉及到的知识产权问题:

刚才是人工智能生成物涉及到的问题,现在是人工智能自己涉及到的问题。人工智能涉及到哪些问题呢?第一是人工智能自身涉及到的著作权问题。现在像李飞飞女士,为了生成超大规模的数据库,她已经花了8年时间,搜集了几千万张图片等信息资料,集成到了数据库里面去。那么大家想一下,这几千万张照片里有著作权问题吗?全部都是工业领域的吗?我相信不会。第二个,如果人工智能是一个独立的主体,或者说是一个工具。事物一旦与利益相关了之后,就会出现问题。如果我买人工智能,那么它就是个工具,最后的结果就不会引发那么多的著作权问题。就像我买电脑一样,我把钱付完了,等于我把这台电脑里所承载的知识产品就买回来了。但是像“小兵”这样,我利用这个工具,又通过这个工具生成一种东西,这个时候能说这不会引起利益冲突吗?肯定是会的。所以我想,如果把人工智能作为一个独立主体的时候,这个问题该怎么解决?第二个问题就是人工智能自身涉及到的专利权问题。主要就是使用他人的专利技术、外观设计;或者生成的技术与他人的在先专利相同或者等同构成侵权的问题;第三个就是人工智能自身涉及到的商业秘密问题。因为在人工智能的生产过程中有很多不为人知的信息,那么其中的商业秘密该怎么保护?第四个问题是人工智能自身涉及到的个人隐私信息问题。人工只能搜集到这么多信息,会不会涉及到公民的隐私、侵犯到隐私以及把它当成“人”的时候,那么它自己是否有隐私呢?这是我参加几次会议之后得到的一些信息跟大家分享一下,当然这些问题现在也没有答案。

五、人工智能的未来:

现在就有人担心,如果到了超人工智能阶段,随着人工智能技术的发展,人工智能所具有的各种能力大幅提升,以至于现在有人开始为人类的未来担心,以为在未来某个时间,人工智能将成为世界的主宰,统帅我们人类。我至少在两个场合听到了这种担心。就像索菲亚说的那句我们非常熟悉的句子:人不犯我,我不犯人。但是我觉得将来如果这样的话,我们就不叫人类了,应该叫“人机共类”了,最后不是我们统帅它,而是它可能会统帅我们。有人提出非常大胆的设想,就是有一天,人可能成为人工智能的奴隶。有在这种担心我觉得是可以理解的,因为“如何使用技术,是人类作为一个整体的责任。关于人工智能未来的讨论,希望业界领袖、院校教授学生、立法者、政策制定者……所有人都能加入进来。”美籍华人、人工智能实验室主任李飞飞说。就是说人工智能的发展一定不能让它泛滥,不能没有边界,而应当受到法律的控制。虽然在宇宙运转中,人类必然会灭亡,这是一种大的规律,但人类不会自己灭绝自己,一定要采取办法控制人工智能。“使用技术是人类作为一个整体的责任。希望人类能够共同参与。”根据中国载人空间站首席科学家、著名物理学家马兆远所讲:“人工智能永远无法超过人类。”他说是永远,我认为他的这些话是有基础的,他根据“钱德拉色卡极限理论”提出这种观点,“极限理论”就是“人脑大约有130亿个脑细胞的六次方乘以3,当一个恒星的质量超过钱德拉色卡极限时,其结果就缩成一个黑洞。”所以他认为,人工智能永远超过不了人类,这是传递给大家的一个信息,这个说法对不对呢?大家自己来评价。我个人认为担忧人工智能取代人类不必要。从智慧因素、技术因素、伦理因素、法律因素这四个方面来讲,也不会让人工智能超过我们人类。

第一是人类的智慧。德国一位科学家指出,当某一事物出现在我们面前的时候,我们会在一瞬间会发动10亿以上的脑细胞进行活动。比如去“旅游”的时候,我们会同时想到一百个问题,但人工智能不会,因为人工智能仅仅会进行一种计算和逻辑推理。人类大脑不是树状关系,而是平行的、相互交叉的,所以可以同时想到100个问题。有人说怎么能够同时想到100个问题呢?其实想100个问题就像呼吸空气一样容易,只是我们不会把它们从脑子里全部分解出来。但人工智能没有事前设计就什么也不知道,就像人工智能索菲亚可以和人类对话,为什么能够对话?因为对话这个程序已经被人类设计好了,语音识别现在已经很简单了。所以在智慧因素上说人工智能比不上人类。第二个是技术因素:就像刚才马兆远教授的观点;人类大概有130亿个脑细胞;任意选六个人可以把全世界70亿人包揽;地图六色原理等极限理论等等。第三是伦理因素:就像我刚才说的那些克隆技术、基因技术等等,这些因素都会导致伦理的混乱,但是我们伦理因素一定会让人工智能在一定的界限内止步。第四个因素就是法律因素,就是我们要制定法律。不管人工智能现在运行到了什么阶段,一定会有相应的法律的,这是肯定的,一定会划出一个边界。至于划到什么程度,这是各个国家立法的选择。伦理因素和法律因素是我们人类可控的,也是大家在今后可以讨论的。

所以我们说科学家担负伦理风险,不是做出发明创造就行、或者把人工智能制造得越高级越好、越前沿越好,并非如此。所以科技工作者一定要有一种科技伦理风险意识。现在没有人担心克隆技术影响我们人类了吧?基因技术也是吧?这些消息都杳无音讯了。所以人类化解风险的能力是非常强的,一定要止步于某一点,造福人类,但可以化解危机。目前人工智能对我们人类生存、发展、繁衍有好处,但不能说让它最后把我们人类毁灭了。我认为,这个风险是可以化解的。  

六、应对人工智能的措施:

我认为有这么几个措施:第一个就是设置人工智能研究开发的边界:针对特定的目的开发研究特定目的人工智能,这一点非常重要。就是人类在生产生活中一定会遇到很多具体问题,其中有些问题是人类做不到的,比如计算。通讯也是计算的结果,大家都知道这些都是用0和1来计算的。比如我们物联网、智慧城市、智慧生活的建设靠什么呢?实际上就是靠计算,靠0和1来计算的。人工智能也是靠计算,如果没有计算,那么人工智能也没有用,它也是需要和网络联系在一起的,也是需要辅助的设备的,而人类则不需要。还有人最担心的事是以后用人工智能取代我们人类的工作,导致大家都下岗。我认为如果人工智能能够把我们人类大部分工作取代的话,那样会很好,因为人类会很轻松。社会的发展就是新技术取代旧技术的过程,相应地就会导致一部分人下岗,但同时会有更多的人就业,因为人们要去制造、操作和管理人工智能机器。所以这个问题上不可怕,最怕的是人工智最后能主宰人类。所以在这一点上,对特定的目的开发研究特定目的人工智能,这样做就可以了。

第二个是伦理边界。随着技术的发展,人工智能与人类结婚生子在技术上来讲是没有太大困难的,但是从道德和法律的角度来讲,这应该是不允许的,否则会出现十分严峻的后果。不得与人类缔结婚姻、生育子女。

第三就是行为边界。就是人工智能不能替代人类从事管理人类的活动,不能对人类造成伤害。将来无论人工智能多么发达,管理我们人类的还应该是人类自己。所以管理类的人工智能是不可行的。

第四是综合边界。就是为了维护人类尊严,人工智能只能服务于人类, 始终作为人类支配的辅助性工具。无论到什么时候,人工智能只能服务于人类,而不能领导人类。除此之外,人工智能还有哪些方面的问题要考虑呢?我想这个就不好说了。但是目前所谈的专利的问题、著作权的问题,我想都是很一般的问题。

实质上,科学技术催生了知识产权,每一步科学技术的发展都会必须必然必定地引起知识产权制度的发展。每一次新技术的出现和变革,都对知识产权带来挑战,知识产权对科学技术的发展最为敏感。比如19世纪末,当摄影技术、留声等出现,关于摄影作品和照片有没有区别,到现在都还没有定论;留声技术出现以后,关于唱片、录像制品、录音制品的关系到现在同样还没有结论。60-70年代,当计算机硬件和软件分离,全球范围内也引发了计算机软件要不要保护、怎么保护的问题,到现在也没有统一;MTV的出现也引发了困惑,我们把它看作录音制品还是录音作品?是录像制品还是录像作品?有人说互联网的出现会出现人类社会的颠覆性革命,事实证明它不是颠覆式的革命,而是改良式的进步,因为基本的规则没有颠覆。3D打印出现的时候,很多学者说这将是对专利制度、著作权制度带来颠覆式的革命、颠覆式的影响,他们认为3D打印将从工业领域延伸到家庭,并会颠覆目前的著作权制度和反不正当竞争制度,但是现在来看,都没有颠覆,随着技术的发展,我们的知识产权制度只是最多改善了一下,目前我还没看到专门针对3D打印的改善。当年克隆技术的出现也很可怕,现在也风平浪静。

知识产权制度的生命力久经考验。技术革命、科学技术的发展会给知识产权带来一定的影响,这是毫无疑问的,要么就是权利的增加、要么是制度的调整,但最重要的是:知识产权制度面临所有技术革命时只需要做一件事,就是要做到利益平衡,根据这个准则作适当的调整达到均衡就可以了,这是一个永远的话题。不会有什么技术有一天把知识产权制度颠覆掉。利益平衡针对的主体处于三角结构,当任何一方权利增加的时候,三角形的重心就会转移,我们要做的就是找准这个重心。现在在人工智能时代,大家并不是对知识产权制度产生担心,而是对社会产生担心。我有一点可以让大家相信:人类的生存、繁衍、发展是人类社会的研究的终极目标,我们的研究不是为了颠覆和毁灭人类,所以人工智能也绝对不会颠覆我们的人类。

 

 

整理:刘云开、刘玲玲、刘礼歌

来源:中国知识产权研究网

相关文章:


鄂ICP备05008429号
Copyright? 2004-2010 iprcn.com All rights reserved. 中国知识产权研究网 版权所有
联系电话:027-88386157