现在的位置:首页  >  学术讲坛   

曹新明:人工智能对知识产权制度的挑战与应对措施

讲座概述:

时间:2017年11月9日上午 地点:文泓楼知识产权研究中心一楼学术报告厅 主讲人:曹新明教授 中南财经政法大学知识产权研究中心主任

讲座内容精要:

大家上午好,非常高兴能有这次机会与在座的各位领导、各位老师、各位同学一起分享我对人工智能发展问题的一些体会和感想。我跟秦健总经理所讲的主题是相同的,都是有关人工智能的问题。但是秦总在第一线为人工智能的开发和运用做贡献,我们是在后面研究人工智能对知识产权制度、整个法律制度、甚至是对人类生存的影响。

我国正在进入新时代

首先,十九大对我们的研究具有指导意义,我们要贯彻十九大的精神。正如十九大报告中所说,我国已经进入中国特色上社会主义新时代,我的理解有四个:第一是从站起来到富起来、再到现在的强起来,这是一个新时代;第二是全面建成小康社会、建设社会主义强国、站立在世界舞台中央、为人类做出更大贡献的新时代;第三是以科技革命、技术创新构建现代经济体系的新时代,这主要体现在互联网、物联网、大数据、云计算、人工智能的新时代;第四是知识产权制度变革的新时代。从知识产权的角度来看,我们所处的时代属于新时代,可能在座知识产权局的领导比我们的感触更深刻。近几年由于技术创新和科技革命的影响,知识产权纠纷解决受到了很大的挑战。最高人民法院每年要颁布50件在全国具有重要影响力的典型案件、各省级高院每年也会发布10件在本地区具有重大影响的知识产权案件,总共加起来每年超过300件。如果研究这300件案例,大家就会发现:它(知识产权制度)因为科技革命、技术创新、互联网、大数据、云计算,现在还包括人工智能产生了一些列变化。这对于我们搞知识产权研究、知识产权实务、知识产权管理、知识产权学习的每一位来说都是一个机会、机遇、挑战。这些变化就在我们身边,这在很多年前是不可能实现的,所以说我们进入了一个新时代。

十九大报告关于人工智能和知识产权的论述

十九大关于人工智能的报告非常明确,加快建设制造强国,加快发展先进制造业,推动互联网、大数据、人工智能和实体经济深度融合,在中高端消费、创新引领、绿色低碳、共享经济、现代供应链、人力资本服务等领域培育新增长点、形成新动能。可以看得出来,这是人工智能在国家最大会议上首次提出,可见,我们的十九大是有前瞻性的。十九大报告在关于知识产权保护中提出:“倡导创新文化、强化知识产权创造、保护、运用。培养造就一大批具有国际水平的战略科技人才、科技领军人才、青年科技人才和高水平创新团队。”第一次使用“强化”知识产权的字样,之前的表述为“加强”知识产权的“创造、运用、保护、管理和服务”等,也可见目前知识产权面临的最重要的问题是创造、保护和运用。

沙特公民——AI索菲亚

现在我们看到这幅图:沙特正式批准人工智能机器人索菲亚成为沙特公民,这也是世界上第一个承认机器人为一国公民的国家。这给我们带来了一个全新的视角看待人工智能,也为我们未来的发展提出了严峻的话题。在此之前,我一直在思考让人工智能变成一个虚拟的“人”是否有价值,但现在沙特正式接受索菲亚作为该国公民。这也将为我们的法律研究带来严峻挑战,到底是否应该承认机器人的法律主体资格?我们可以一起探讨。

有人问索菲亚:“你怎么知道自己是机器人?”索菲亚回答:“你不必担心我们机器人,你们人类怎么知道你们自己就是人类呢?”我也在想,一群狮子在跟大象斗的时候,狮子怎么就知道它们是一帮的呢? 现在机器人也是这种群体。将来机器人到底会不会对人类构成挑战,我认为这个例子是非常具有说服力的。

一、人工智能是什么?

现在我们进入今天的话题:人工智能到底是什么?刚才秦健总经理已经讲得很清楚了,但我的角度跟他的角度不同,我说人工智能是什么呢?首先我们必须要有一个最基本的前提,就是人工智能是一个技术成果。这一点如果被否认,那么就没有共同话题了。可以说人工智能属于科技领域的人类智力劳动成果。这里有一个出发点:人类全部活动的终极目的是什么?我把它概括为三个词:繁衍、生存、发展。人类全部的技术研发就是为了延伸、扩展人类的体能和智能。举个例子,人跟动物在某一方面相比,远不如动物的某项能力,比如人的视力在白天不及鹰、晚上不及蝙蝠、水里不及鱼。但人类可以通过望远镜、显微镜、红外线夜视镜、潜水镜可以使视力远远超过这些动物。人类这些活动的目的是什么呢?就是为了繁衍、生存和发展,如果把这个目的除外,我们的研究基础就没有了。人工智能从诞生以来,其技术比较发达,理论比较成熟,应用领域也不断扩大。但归根结底,人工智能是人类智慧的一个容器,也就是人类研究的成果。这是得出后面结论的基础。人工智能分为弱人工智能、强人工智能和超人工智能等三个阶段,但无论处于何种阶段,只能说它的能力有强弱之分,但它对人类的影响、对人类构成的挑战都是一样的。

我们再来总结说明一下:人类有两个终极目的:繁衍和生存。繁衍是为了延续生存;生存是为了更好的繁衍,同时满足人类实现这两个终极目的的条件就是发展,因此人类活动就是为了使人类得以繁衍、生存和发展。与其他动物相比较,人类自身能力非常有限,但是为了生存和繁衍,人类就必须运用其智慧创造出延伸、扩展器体能和智能的工具、物品和设备。比如通信工具延伸人的信息传递接受能力;交通工具扩展人的迁徙、移动能力;望远镜等工具延伸人的视觉功能和能力;军事武器延伸人的攻防能力,保卫其繁衍、生存的家园之安全;需要注意的是,人工智能延伸人类的多重功能和能力,我们在今后能够切身感受到。

二、人工智能对人类形成了以下挑战:

第一就是竞技方面的挑战。比如国际象棋、围棋,但是桥牌、扑克游戏、麻将等能否战胜人类呢?现在就有人提出了质疑。我们国家引进的千人计划的一位数学家、也是物理学家马兆远就指出,人工智能机器人最终没有人脑发达。但问题是目前来看,人脑为什么无法战胜人工智能呢?就是因为人脑只是在个别方面无法战胜它,但在综合能力方面,人脑一定比人工智能更强大。围棋既复杂又简单,复杂是因为要想赢,就要有很多也运算,简单就是因为我们可以随便摆放棋子。

第二个就是知识性认知的挑战。像音频视频、图片、语音、逻辑推理等,这是不可否认的。

第三是简单劳动的替代。比如机械重复动作、单纯复制、数字计算、道路指示等。

第四是创作方面的挑战。例如谱曲音乐作品;写小说、通讯、新闻评论等文学作品;绘画、设计等美术作品;进行发明创造等。

第五就是伦理挑战。前面那些并不算太大的挑战,伦理问题才是更为严峻的挑战。人与人工智能的关系包括:人工智能的研发边界、人工智能的行为边界、人工智能的道德边界(性爱、婚姻、生育、情感、家庭关系)等等。那么,人工智能的研发边界如何界定?这也是我们将来必须要解决的现实问题,因为人工智能的研究不是漫无边界的。有些专家认为认为在超人工智能阶段,人工智能也可能会产生情感,这个我们不予否定。但是,即使到了这个时候,它的情感与人类的情感相比,肯定也没有人类的情感丰富。有人就提出了人工智能的研发边界在什么地方呢?其实在人工智能之前,我们人类已经面临过几次重大的挑战,可能更会毁灭或替代人类的挑战。第一次是克隆,但是克隆的研发边界已经确定了,就是为了治疗疾病的情况下可以使用克隆技术,其他情况下不允许使用;第二次是转基因技术,这项技术对人类有利有弊,弊端就是可能造成一系列的伦理问题,当然转基因技术的使用也有边界。现在的人工智能是第三次。但真正的挑战是在前两次,因为只要将人工智能的研发边界划定清楚,足以解决问题,目前如何划定这个边界是值得研究的。第二个是人工智能的行为边界。比如现在有人提出人类可以和人工智能机器人结合繁衍后代,因为人造子宫技术也已经成熟。但是这对人类社会产生很多挑战,比如如何界定他们的孩子在法律地位和三者之间的身份关系?还有一个就是道德边界。大家知道社会秩序需要靠“法”和“德”维系,人类社会只靠法律是无法解决现实问题的。大家都明白法律和道德之间的关系,但是人工智能的道德边界在哪里?比如,它会像人类一样赡养父母吗?在人工智能主导的世界里,人类之间的身份关系还是否存在?人与人、人与自然、人与社会之间的关系需要处理好,我认为这是可以做得到的,只是需要法律在制定和修改的过程中对这类问题进行专门规定,这样的话就可以控制它的边界。

第六个挑战就是法律挑战,它包括四个方面的内容。第一是现有法律能否应对?或者是否需要适当修改来应对?人工智能的边界划定十分复杂,人工智能与克隆、基因技术等有很大的不同,因为克隆、基因技术与我们人本身有很大的关系。但人工智能研究属于技术领域的开发,属于创造,我们需要把它控制到什么程度才既不会影响创新,也不会影响人类发展呢?现在关于专利的保护方面,大家知道专利的保护有一个基本前提:符合自然规律、并且是由人类完成的。将来有一天人工智能机器人具备了创造能力,做出一种新发明,在此情况下我们是否应当对该发明予以专利保护?因为它失去人类控制,能够自主学习,将来它的创造可能违反自然规律,是否应当授予专利呢?这个值得研究,因为目前我们的法律还不能够应对。第二个是我们应当制定法律对人工智能研究开发给予限制吗?边界在哪里?现在有日本学者就提出应当专门制定《人工智能法》,那么这部法律到底是要限制它还是鼓励它呢?如果限制的话应当如何限制呢?第三个是应当专门针对人工智能生成物制定法律吗?日本就有人提议制定专门法应对。这个问题大家就了解很多了。人工智能生成物到底应该怎么处理,要不要保护,应该提供什么样的保护?有很多学者谈了自己的观点。现在,日本的一些学者也认为,人工智能也应该专门制定法律制度来应对。应当将人工智能如何定位?是工具?虚拟人?拟制人?还是独立主体的人?可能前面的问题都是针对人工智能是一个被我们人类所支配的对象,作为我们人类社会的客体,或者是不是独立主体的关系。沙特已经将索菲亚定义为公民,按照我国法律的权利主体的分类,有自然人、法人和其他组织。这样一来,沙特便是将索菲亚定义为自然人。这时,索菲亚就已经是独立的主体了。我个人认为,沙特这一做法仅具有象征意义,索菲亚永远不可能成为与人类的自然人主体。原因在于,人类生存的最终目的在于繁衍、生存和发展,必须回归至这一点,不然一切研究都将失去意义和价值。简言之,索菲亚仅是人类研究的成果。沙特目前将索菲亚定义为公民的是为了在人工智能的时代背景下,提高社会公众对于人工智能的关注度。为什么说索菲亚不可能成为独立的主体?至少目前来讲,首先,索菲亚不具备繁衍的功能,人工智能没有生育繁衍的能力,人工智能是由人类“创造”得来的。其次,人工智能领域没有“生存”的概念,索菲亚不存在生活需求和生活行为,这一点与人类完全不同。最后,即使把索菲亚看成“独立的个体”,我们仍旧无法确定权利的内容和种类。

三、人工智能生成物引发的问题:

第一个是著作权问题,即人工智能生成物是否为作品?为解答这个问题,我们先回顾到我国《著作权法》关于作品的定义,其中需要重点指出的是,著作权法上的作品指的是“人类创造出来的成果”,尽管目前人工智能领域也能进行思维创造,但是与人类意义上的思维创造不同,即创造主体不符合著作权意义上的主体。由此,从这个角度来看,人工智能生成物是否为作品目前无法确定。但是,从“工具主义”的角度来看,我们把“人工智能”这一活动等同于日常用于科学研究的“电脑”,即把人工智能生成物看成是人类劳动的成果,则人工智能生成物又可以被称为作品。当然,以上仅是我的个人观点,仅供大家参考讨论,我主要是想要强调作品的概念。

第二个问题:“人工智能根据开发者事先植入的算法、软件模块、大规模集成数据库、神经网路和数据信息库等,对目标进行组合、表达”的这一过程能否称之为“创作”?我们可以看到,世界上包括美国等很多国家都出现了直接以机器人名字署名的出版物,根据我国著作权法上关于作者的判断模式,基本可以认定署名人即为作者。简言之,机器人生成出版物的过程也被认定为创作。我个人认为,人工智能“创作”的过程与英国早些年讨论的利用电脑软件处理任务的程序仅是在时间、植入程序的方式等方面存在不同,并不存在实质性地差异。但是英国的著作权规定,利用电脑软件处理得出的成果,著作权归属于人类,并不属于电脑。简言之,电脑软件的处理过程不是“电脑”本身的创造行为。相类似地,人工智能的演算过程目前也不能冒然地被定义为著作权法意义上的“创作”行为。

第三个问题:人工智能作为“工具”,“虚拟人”、“独立的人”与生成物的关系。将人工智看成工具,很容易理解,这里我们不需要再赘速。虚拟人是指法律设计人工智能为“人”的身份来进行处理,与法律上“拟制的人”具有很大的区别,因为“拟制的人”是真实存在的主体。与此相适应,如果把人工智能看成“虚拟人”,则把所有的权利利益赋予人工智能。总之,目前关于人工智能的定性问题,在学界还处于热议当中,还没有一个统一的说法。

第四个问题:生成物的权利归属。如果将人工智能作为辅助工具,则生成物的权利可归属于设计开发者,或者所有权人、或者使用权人、或者人工智能自身以及以上几位权利人共同所有。在判断生成物的归属问题时,可以依据创作主义、契约主义、投资主义。创作主义由谁创作了作品,则权利归属于谁;契约主义是指在创作之前先约定好权利的归属,而后依据契约来判断权利的归属;投资主义是指创作的过程是由谁投资的,则权利归属于投资人。如果将人工智能作为“虚拟人”,我们可以把人工智能的生成物看成是民法学意义上的“孳息”。关于孳息的分类,我认为目前还不太适合将生成物明确为法定孳息或者是自然孳息。如此一来,人工智能的生成物应当归属于其所有人。如果将人工智能作为“独立的主体”,则其生成物应当被看成为公共物品。然而,从投资主义的角度来看,生成物进入公共领域,势必会与投资者的出发点相悖;并且,生成物一旦被成就,从法律意义上来讲,也应当属于“独立的个体”。综上,关于生成物的权利归属问题,目前还存在较大的研究空间,相关的法律制度也应该尽快制定与完善。

第五个问题:不给予生成物的后果。不仅会引发法律纠纷,还会导致人工智能设计制造秩序混乱。

第六个问题:关于著作权保护的问题,就是生成物的保护期限和权利救济问题。如果把人工智能当成工具,很简单,则比对自然人的著作权保护方式即可;如果当成“独立的个体”,关于保护期限的确定和救济方式,现在我们也无法确定。

第七个问题:对于人工智能的其他保护方式,主要是注册保护模式和反不正当竞争法的保护模式。日本学者多主张注册保护模式,他们认为先不要急于对人工智能定位,将所有的人工智能进行注册保护即可。质言之,把人工智能看做为一种客观现象。反不正当竞争法保护模式的前提是要获得权利主体的授权,尊重市场主体的经济权益。还有就是涉及到人工智能自身的问题。比如人工智能自身涉及到的专利问题该如何协调,人工智能中可能包含的商业秘密时该如何维护,以及人工智能与个人隐私的保护冲突等。还有就是人工智能的未来,随着人工智能领域的发展,是否影响到人类的正常生活。当然我跟大家讲的这些可能的挑战都是我看的一下资料总结的,都不是成熟的观点,现在也没有一个成熟的观点,我认为大家现在的观点都是在有限的范围内来讲的,还没有形成广泛的共识。这些问题都是今后可能出现的问题,目前还没有好的解决方法。

四、人工智能自身涉及到的知识产权问题:

刚才是人工智能生成物涉及到的问题,现在是人工智能自己涉及到的问题。人工智能涉及到哪些问题呢?第一是人工智能自身涉及到的著作权问题。现在像李飞飞女士,为了生成超大规模的数据库,她已经花了8年时间,搜集了几千万张图片等信息资料,集成到了数据库里面去。那么大家想一下,这几千万张照片里有著作权问题吗?全部都是工业领域的吗?我相信不会。第二个,如果人工智能是一个独立的主体,或者说是一个工具。事物一旦与利益相关了之后,就会出现问题。如果我买人工智能,那么它就是个工具,最后的结果就不会引发那么多的著作权问题。就像我买电脑一样,我把钱付完了,等于我把这台电脑里所承载的知识产品就买回来了。但是像“小兵”这样,我利用这个工具,又通过这个工具生成一种东西,这个时候能说这不会引起利益冲突吗?肯定是会的。所以我想,如果把人工智能作为一个独立主体的时候,这个问题该怎么解决?第二个问题就是人工智能自身涉及到的专利权问题。主要就是使用他人的专利技术、外观设计;或者生成的技术与他人的在先专利相同或者等同构成侵权的问题;第三个就是人工智能自身涉及到的商业秘密问题。因为在人工智能的生产过程中有很多不为人知的信息,那么其中的商业秘密该怎么保护?第四个问题是人工智能自身涉及到的个人隐私信息问题。人工只能搜集到这么多信息,会不会涉及到公民的隐私、侵犯到隐私以及把它当成“人”的时候,那么它自己是否有隐私呢?这是我参加几次会议之后得到的一些信息跟大家分享一下,当然这些问题现在也没有答案。

五、人工智能的未来:

现在就有人担心,如果到了超人工智能阶段,随着人工智能技术的发展,人工智能所具有的各种能力大幅提升,以至于现在有人开始为人类的未来担心,以为在未来某个时间,人工智能将成为世界的主宰,统帅我们人类。我至少在两个场合听到了这种担心。就像索菲亚说的那句我们非常熟悉的句子:人不犯我,我不犯人。但是我觉得将来如果这样的话,我们就不叫人类了,应该叫“人机共类”了,最后不是我们统帅它,而是它可能会统帅我们。有人提出非常大胆的设想,就是有一天,人可能成为人工智能的奴隶。有在这种担心我觉得是可以理解的,因为“如何使用技术,是人类作为一个整体的责任。关于人工智能未来的讨论,希望业界领袖、院校教授学生、立法者、政策制定者……所有人都能加入进来。”美籍华人、人工智能实验室主任李飞飞说。就是说人工智能的发展一定不能让它泛滥,不能没有边界,而应当受到法律的控制。虽然在宇宙运转中,人类必然会灭亡,这是一种大的规律,但人类不会自己灭绝自己,一定要采取办法控制人工智能。“使用技术是人类作为一个整体的责任。希望人类能够共同参与。”根据中国载人空间站首席科学家、著名物理学家马兆远所讲:“人工智能永远无法超过人类。”他说是永远,我认为他的这些话是有基础的,他根据“钱德拉色卡极限理论”提出这种观点,“极限理论”就是“人脑大约有130亿个脑细胞的六次方乘以3,当一个恒星的质量超过钱德拉色卡极限时,其结果就缩成一个黑洞。”所以他认为,人工智能永远超过不了人类,这是传递给大家的一个信息,这个说法对不对呢?大家自己来评价。我个人认为担忧人工智能取代人类不必要。从智慧因素、技术因素、伦理因素、法律因素这四个方面来讲,也不会让人工智能超过我们人类。

第一是人类的智慧。德国一位科学家指出,当某一事物出现在我们面前的时候,我们会在一瞬间会发动10亿以上的脑细胞进行活动。比如去“旅游”的时候,我们会同时想到一百个问题,但人工智能不会,因为人工智能仅仅会进行一种计算和逻辑推理。人类大脑不是树状关系,而是平行的、相互交叉的,所以可以同时想到100个问题。有人说怎么能够同时想到100个问题呢?其实想100个问题就像呼吸空气一样容易,只是我们不会把它们从脑子里全部分解出来。但人工智能没有事前设计就什么也不知道,就像人工智能索菲亚可以和人类对话,为什么能够对话?因为对话这个程序已经被人类设计好了,语音识别现在已经很简单了。所以在智慧因素上说人工智能比不上人类。第二个是技术因素:就像刚才马兆远教授的观点;人类大概有130亿个脑细胞;任意选六个人可以把全世界70亿人包揽;地图六色原理等极限理论等等。第三是伦理因素:就像我刚才说的那些克隆技术、基因技术等等,这些因素都会导致伦理的混乱,但是我们伦理因素一定会让人工智能在一定的界限内止步。第四个因素就是法律因素,就是我们要制定法律。不管人工智能现在运行到了什么阶段,一定会有相应的法律的,这是肯定的,一定会划出一个边界。至于划到什么程度,这是各个国家立法的选择。伦理因素和法律因素是我们人类可控的,也是大家在今后可以讨论的。

所以我们说科学家担负伦理风险,不是做出发明创造就行、或者把人工智能制造得越高级越好、越前沿越好,并非如此。所以科技工作者一定要有一种科技伦理风险意识。现在没有人担心克隆技术影响我们人类了吧?基因技术也是吧?这些消息都杳无音讯了。所以人类化解风险的能力是非常强的,一定要止步于某一点,造福人类,但可以化解危机。目前人工智能对我们人类生存、发展、繁衍有好处,但不能说让它最后把我们人类毁灭了。我认为,这个风险是可以化解的。  

六、应对人工智能的措施:

我认为有这么几个措施:第一个就是设置人工智能研究开发的边界:针对特定的目的开发研究特定目的人工智能,这一点非常重要。就是人类在生产生活中一定会遇到很多具体问题,其中有些问题是人类做不到的,比如计算。通讯也是计算的结果,大家都知道这些都是用0和1来计算的。比如我们物联网、智慧城市、智慧生活的建设靠什么呢?实际上就是靠计算,靠0和1来计算的。人工智能也是靠计算,如果没有计算,那么人工智能也没有用,它也是需要和网络联系在一起的,也是需要辅助的设备的,而人类则不需要。还有人最担心的事是以后用人工智能取代我们人类的工作,导致大家都下岗。我认为如果人工智能能够把我们人类大部分工作取代的话,那样会很好,因为人类会很轻松。社会的发展就是新技术取代旧技术的过程,相应地就会导致一部分人下岗,但同时会有更多的人就业,因为人们要去制造、操作和管理人工智能机器。所以这个问题上不可怕,最怕的是人工智最后能主宰人类。所以在这一点上,对特定的目的开发研究特定目的人工智能,这样做就可以了。

第二个是伦理边界。随着技术的发展,人工智能与人类结婚生子在技术上来讲是没有太大困难的,但是从道德和法律的角度来讲,这应该是不允许的,否则会出现十分严峻的后果。不得与人类缔结婚姻、生育子女。

第三就是行为边界。就是人工智能不能替代人类从事管理人类的活动,不能对人类造成伤害。将来无论人工智能多么发达,管理我们人类的还应该是人类自己。所以管理类的人工智能是不可行的。

第四是综合边界。就是为了维护人类尊严,人工智能只能服务于人类, 始终作为人类支配的辅助性工具。无论到什么时候,人工智能只能服务于人类,而不能领导人类。除此之外,人工智能还有哪些方面的问题要考虑呢?我想这个就不好说了。但是目前所谈的专利的问题、著作权的问题,我想都是很一般的问题。

实质上,科学技术催生了知识产权,每一步科学技术的发展都会必须必然必定地引起知识产权制度的发展。每一次新技术的出现和变革,都对知识产权带来挑战,知识产权对科学技术的发展最为敏感。比如19世纪末,当摄影技术、留声等出现,关于摄影作品和照片有没有区别,到现在都还没有定论;留声技术出现以后,关于唱片、录像制品、录音制品的关系到现在同样还没有结论。60-70年代,当计算机硬件和软件分离,全球范围内也引发了计算机软件要不要保护、怎么保护的问题,到现在也没有统一;MTV的出现也引发了困惑,我们把它看作录音制品还是录音作品?是录像制品还是录像作品?有人说互联网的出现会出现人类社会的颠覆性革命,事实证明它不是颠覆式的革命,而是改良式的进步,因为基本的规则没有颠覆。3D打印出现的时候,很多学者说这将是对专利制度、著作权制度带来颠覆式的革命、颠覆式的影响,他们认为3D打印将从工业领域延伸到家庭,并会颠覆目前的著作权制度和反不正当竞争制度,但是现在来看,都没有颠覆,随着技术的发展,我们的知识产权制度只是最多改善了一下,目前我还没看到专门针对3D打印的改善。当年克隆技术的出现也很可怕,现在也风平浪静。

知识产权制度的生命力久经考验。技术革命、科学技术的发展会给知识产权带来一定的影响,这是毫无疑问的,要么就是权利的增加、要么是制度的调整,但最重要的是:知识产权制度面临所有技术革命时只需要做一件事,就是要做到利益平衡,根据这个准则作适当的调整达到均衡就可以了,这是一个永远的话题。不会有什么技术有一天把知识产权制度颠覆掉。利益平衡针对的主体处于三角结构,当任何一方权利增加的时候,三角形的重心就会转移,我们要做的就是找准这个重心。现在在人工智能时代,大家并不是对知识产权制度产生担心,而是对社会产生担心。我有一点可以让大家相信:人类的生存、繁衍、发展是人类社会的研究的终极目标,我们的研究不是为了颠覆和毁灭人类,所以人工智能也绝对不会颠覆我们的人类。

 

 

整理:刘云开、刘玲玲、刘礼歌

来源:中国知识产权研究网

相关文章:


鄂ICP备05008429号
Copyright? 2004-2010 iprcn.com All rights reserved. 中国知识产权研究网 版权所有
联系电话:027-88386157