【Deep Dive: AI Webinar】版权是开源代码的正确答案,还是开源人工智能的错误答案?
大家好,欢迎来到由开源促进会组织的深入探讨人工智能网络研讨会系列。我是 OSI 执行董事 Stefano Maffulli,今天我们将听取 McCoy Smith 对版权的看法。版权是开源代码的正确答案,还是开源人工智能的错误答案?一个非常有趣的话题。希望你喜欢。最后我们会回答大家的问题。
我叫麦考伊·史密斯。我是美国俄勒冈州波特兰市的一名律师。我今天讨论的主题是版权,它目前是如何在开源软件许可中发挥作用的,以及它如何不适用于开源人工智能的许可。首先是本次分享的免责声明。你们大多数人可能都知道,人工智能是一项非常复杂的技术,它有很多不同的实现方式,很多都是不同的实质性方式。此外,版权和人工智能目前是许多法律纠纷的主题,无论是在法庭诉讼中还是在政府机构中。还有许多与版权有关的问题尚未完全解决。所以我这次演讲对技术、目前的状况和版权的描述,是相当抽象的,主要是讨论我们是否可以考虑在开放的人工智能环境中,有哪些使用版权的通用原则。
首先,让我们谈谈什么是开源。我看待开源的方式有两种:第一,它是一种哲学,是一套关于如何在开放环境做事的一般原则。一般来说,软件应该是自由的,就像言论自由一样,正如自由软件基金会多年来所阐述的那样。然而,开源也是一种定义法律权利如何传达的方式,我认为 OSI 颁布的开源定义就是一个很好的例子。它主要是针对许可证的特征,许可证是合法的权利转让,以及一个人如何满足开放的概念以及许可证所带来的合法转让。自由软件的定义更像是一份富有哲学意味的文件,尽管它也用于定义许可证是否为自由软件许可证。当然,OSI 做得很好,经常审查许可证,看看它们是否应该放在他们的许可证列表上。OSI 在做出这些决定时,主要考虑的是第二点,即定义法律权利如何传达,尽管有时在决定一个许可证是否应该放在 OSI 列表中时,也会有哲学上的讨论。
现在,自由和开源软件运动主要或几乎完全是专注于使用版权作为一种法律机制来支撑他们的哲学。我想大多数人都熟悉【著"佐"权 copyleft】这个概念,它是许多年前由自由软件基金会创造的一个概念。基本上他们说,好吧,我们要采取一种版权的法律制度,它的目的是:确保专有权利,然后我们将把它变成非专有的东西,从而达到反专有的结果。宽松 ( permissive ) 许可证与此类似,有时被称为【非著"佐"权 non-copyleft 】。我知道有些人不喜欢使用宽松 ( permissive ) 作为【非著"佐"权 non-copyleft】的术语,因为他们认为 copyleft 也属于宽松。但我将交替使用这两个术语,non-copyleft 和 permissive 。早期版本的宽松许可证,BSD 和 MIT 主要被称为版权许可。他们倾向于使用版权的语言来传达权利,尽管对此也有一些争论。后来的宽松许可协议在如何传达版权之权利方面更加明确,尽管许多新的许可协议,也以某种方式传达了其他权利,尤其是专利。
现在,让我们谈谈版权作为一种法律制度。所以我想大多数人都很熟悉版权是什么,这是一项由政府传达的合法权利,并受到某些旨在保护创意作品的国际条约的规范,以约束大多数认为版权保护的是:文学、艺术和音乐等与创造力联系在一起的人门(或外行人)。软件版权的应用是最近才发展起来的。它实际上只发生在70年代,尽管有一些版权申请的历史,至少在70年代之前的美国是这样。但是在 20 世纪 70 年代,在美国国会有一场关于美国版权法的规定是否也应该适用于软件的讨论。这个问题最终通过授予软件版权得到了解决。有趣的是,尽管少数人持强烈反对意见,他们认为版权制度不适用于软件,因为软件主要或完全是功能性的,所以它不是创造性的或表达性的工作。但这打开了美国的闸门,随后国际条约和许多其他国家纷纷效仿。所以我们现在在世界上几乎所有地方都有软件的版权保护。
现在,使用版权来保护技术是有一些限制的。最重要的限制是,版权的目的是:只覆盖所谓的表达,而不是为所谓的想法而设计的。所以保护一个想法的概念是:更导向由专利来覆盖。所以专利是用来保护想法的,版权是用来保护表达的。现在,这些定义并不是非常清晰。从第一个关于软件的版权范围的实例开始,对于任何特定软件的 "表达" 部分到底是什么,一直存在着争论。各种著作权理论对技术著作权的使用都有一定的限制。我要讲的是它们在美国是如何实现的,尽管其中许多理论也适用于美国以外的国家。
因此,在美国,一种我称之为反版权、支持自由言论的版权例外情况,即所谓的 "合并"。合并学说认为,如果有某种东西具有表现力,但这种表现力基本上只有一种实现特定功能的方式,那么你就无权获得版权保护。这是一个相当复杂的分析,但它可以归结为是否有多种方法,以表达的方式实现其功能,在这种情况下,您可以获得版权保护。但如果没有多种方法,那么由于合并原则,你就不能获得该功能表达式的版权。现在,这在美国被称为合并,在其他国家被称为不同的东西。但其他国家在这方面也有类似的概念。第二种例外可能会限制版权,这在美国被称为合理使用,世界上几乎所有地方也都称之为公平交易。合理使用和公平交易通常是对版权侵权的辩护。所以当你遇到某人侵犯版权的情况时,法律规定,某些侵权行为是可以接受的,你无法防止它们。现在,合理使用与公平交易的算法在美国法规和其他国家法规中的体现方式大相径庭。但在美国,合理使用已经成为一个非常活跃的辩论和诉讼领域,所以在美国有争议的案件中,这已经成为一种默认机制,你最终会就某项可以说或至少一方认为侵权的活动,是否应属于合理使用的例外情况进行辩论和分析。
最近的两个例子是几年前的甲骨文 ( Oracle ) 诉谷歌案。这个案子上到了最高法院,这通常与应用程序编程接口相关。另一个案例,公平使用案例,虽然没有一直上诉到最高法院,但仍然很重要。叫做《作者,公会与谷歌》,这个问题与谷歌图书的运作方式有关,以及这是否构成了侵犯了图书作者的版权,或者被合理使用了这些图书的版权。现在,技术版权的另一个重要限制与数据有关。数据本身不受版权保护,当您拥有大量数据汇编时,数据库可能是您可以获得某种形式的版权保护的东西,这取决于你在哪里。所以在美国 一般来说,数据库可能不受版权保护。1991年有一个称为 Feist 的案例,它建立了数据库之类的东西,可能不符合版权保护的条件。尽管如果你看一下那个案例的文本,它确实说在某些情况下,如果你有一个数据库,在收集数据的过程中有很多创造性的选择,有可能版权可以附在这个数据库上。欧盟确实对数据库有版权保护。有一个欧洲数据库指令,它建立了数据库的版权,我在这里包括了它的定义,所以它必须是独立作品、数据或其他材料的集合,以系统或有条理的方式排列,可通过电子或其他方式单独访问的资料。现在,如果你符合这个定义,你确实会得到保护,但如果该指令确实允许提取和实现数据库的大部分内容而不构成侵权。这有点像欧盟数据库指令的公平交易例外条款。
正如我之前所说,开源许可主要是一种通过 copyleft 和 copyright 实现的机制,40 多年来,这种模式一直运作良好。所以我们现在都熟悉许多最流行的许可协议,以及开源许可在整个科技行业的增长和爆炸式增长,在使用开源软件的版权许可方面有一些小的阻碍。其中之一是,正如许多人所熟悉的,许可证不兼容的问题。这通常是你在使用两个不同的 copyleft 许可证时遇到的问题,并且您希望以某种方式在两个不同的 copyleft 许可协议下,同时使用两个软件。有时这会产生冲突,因为许可证的条款,导致了创建这种组合的问题。还有另一个问题,我想大多数人都知道,如果你使用了一段 copyleft 许可的代码,也就是 copyleft 的许可,你想把它变成一个非限制性的 copyleft 许可,或者一个宽松许可,这通常不被随您使用的原始代码一起提供的 copyleft 许可所允许。归属和许可声明要求是 OSI 许可证列表中几乎所有开源许可的特征。有一些许可证的早期版本通常不需要这个,但几乎所有其他许可证都有归属或许可通知要求,或两者兼而有之。这对于 copyleft 许可来说通常不是问题。因为你所需要做的就是保留(沿用)它所附带的相同许可证。但是当你处理 non-copyleft 或宽松许可时,这可能会变得有些复杂,因为你可能有一大堆不同的宽松许可证,你可以把它们组合在一起。但是,当您发布合并后的作品时,您需要附带所有这些不同许可证的所有文本,所有这些代码的归属要求。一般来说,这虽然不是一个大问题。但是,它还是给人们带来了一些相当复杂性。在某些情况下,还带来了非常长的版权声明。但在大多数情况下,这并不是在开源许可下使用受版权保护的代码的巨大障碍。
现在我来谈谈人工智能和开源,或者说是人工智能的开放版权许可。为了做到这一点,我把一些东西抽象到很高的程度,这张片子是我在这里要讲的一些东西的视觉图像。所以你有一个东西,我称之为黑盒子,它是人工智能系统的核心。在很多情况下,因为很多系统是不开放的,所以我们真的不知道里面发生了什么。但是这个黑盒子里有三种可能的输入,一个是训练输入。所以你有一个很大的语料库,黑盒子可以用这个语料库训练自己。它可以是软件代码,可以是视觉图像,可以是文本材料,它可以是任何与版权相关的各种东西。之后还有提示输入,那是这个黑盒的实际用户向黑盒输入参数的地方。例如说,我想让你为我创造一个具有以下特征的事物的图像。然后,黑盒输出与该提示一致的图像。这些是大多数人熟悉的人工智能系统的输入。还有另一个输入在某些系统中存在于某个点,这个输入与在黑盒内进行的加权或矢量相关。所以你有一个黑匣子来接收训练输入。在这个过程中的某个时刻,会有人类说,这是一张拴着红项圈的狗的照片,它被输入到一个特定图像的信息中。如此,黑匣子就知道如何对特定的图像进行分类。然后随着它获得越来越多的图像,它会训练自己去理解狗的样子,项圈是什么样的,颜色是什么样的。
现在,关于版权和人工智能问题的现状在这张幻灯片中有所体现。在美国,尤其是在旧金山的联邦法院,我们已经看到了大量的围绕着这些系统训练的投入和产出的诉讼。所以各种各样的人会来起诉某个特殊的黑盒子正在吸收我拥有的受版权保护的材料,并据以输出一些我拥有版权的材料。所以这个黑盒子侵犯了我的版权。我们看到这方面有很多诉讼,不仅在美国,在其他国家也有,在政府部门,特别是世界各地的版权相关单位,也同时进行着关于这些人工智能系统黑盒子的输出是否应该受到版权保护的辩论。其中就有一些讨论,考虑到某些在很少或根本没有人力投入来产生输出的情况下,在任何特定国家里,由非人类创造的创造性产出,或许应该有资格获得版权保护。
这里显示了一个对黑盒子里可能发生的事情或是存在于黑盒中的组件做了相当简化的分解。我将它大幅度地抽象,它可能并不完全适用于任何特定的工具,但这是一种抽象这些黑盒子里发生的事情的方法。所以从底部开始,有一些基本的逻辑在黑盒子里被使用,例如,如何处理输入的训练数据,如何基于这些数据创建权重或向量,然后这些权重和向量是如何被用来组合和输出结果的。
你也有可能在那个黑匣子里,有一份训练数据的副本。这个副本在多大程度上或有多完整是一个有争议的问题。它可能是完整的训练数据副本,所以你取一个特定的图像,你把一个完整的图像拷贝输入到这个黑盒里,或者它可能是那个图像的部分完整或完全抽象的形式。所以完全抽象就是它真正复制到黑盒子里的是它正在分析的特定图像的数据。然后上面的第三点,是各种参数的创建,它提取或创建的输入数据通常可以被称为权重或向量。这是一种以数据形式输入的关于创意内容的特定特征的信息的数学表示。这些参数或、权重和向量是用来组合在一起并产生黑盒输出的。就这些功能的版权保护而言,黑盒子里的东西,从底层开始,基本逻辑本质上就是软件。里面有软件用来运行人工智能内部发生的很多事情,这是传统上可能受到版权保护的主题,并且可能受到开源许可的约束。我不认为这有任何争议。
在上面的两层,它变得有点有趣或者更有争议,所以训练数据的副本是一些诉讼的主题。这些黑盒在多大程度上,将创意或表达性作品的副本存储在其中,这些作品构成了其训练数据的一部分。如果他们这么做了,那么在很多情况下,那些表现内容都有版权,与此相关的任何许可都将适用于黑盒内的副本。
然而,如果它从表现内容中抽象化,更多的是数据,或者是围绕表现内容的参数,关于这些参数是否有版权保护,这一点更有争议和值得怀疑。至少在美国,权重和向量可能不受版权保护,而在像欧盟这样的地方是有版权的。在那里你有这些数据库的权利。如果权重和向量不受任何版权的约束,那么就没有什么真正需要授权的了,只有当你拥有版权时,你才有可能受制于许可。
现在黑盒子里的东西是一个有很多争论和争议的话题,你会得到很多不同的方法,人们试图预测或描述这些黑盒子里的东西。它通常被描述为一种拼贴画制作工具。因此,它是一台获取受版权保护的表现内容,并将这些碎片拼贴成作品的机器。所以它把有版权的内容拼贴在一起,并把所有这些有版权的内容的片段半连贯地拼接在一起。另一种看待它的方式是:它确实是一种通用智能。因此,黑箱只不过是一个提取词汇表、语法、文法和任何其他规则的工具。版权内容是由这些内容构建的,包括使用由人类大脑构建的内容。然后它应用所有这些规则, 词汇, 句法, 文法和其他规则,来创造一个全新的表达。
现在到底是第一种还是第二种认定方式,是一个有争议的问题。很可能是介于两者之间。我认为很有可能的情况是,训练数据集越大,训练时间越长,以及黑盒子的输出与人类输入的加权和矢量部分差距越大,它就越像普通的智能,也就越没有争议。它只不过是一种受版权保护的表达方式的污染者或拼贴制造者。
好了,现在,我们在抽象层面上讨论了这些人工智能系统的作用,我想谈谈开源的哲学和许可协议。最重要的特征之一,至少在自由软件的定义中,是第零自由(最根本的自由)。这很重要,自由软件基金会把它放在编号系统的最上面。第零自由说,你有自由运行任何一个你希望、为任何目的而运行的程序。一般来说,自由被解释为您的私人使用和复制,您不受任何开源或自由软件义务的约束。这有两个原因:一个是哲学原理,本质上说,你在自己的计算系统中做的任何事情,你不需要告诉任何人,这是你的私事。你的修改是你的隐私,你不应该被强迫,向其他人公开您对系统所做的私人修改。这是一个哲学原理。这也是为什么 Freedom Zero,一般来说,被解释为这样操作,也就是说,如果你必须公开你的私人修改,合规成为一个巨大的头痛问题。你多久需要分享一次你所做的修改?是在您编写新代码或修改代码时所做的每次修改?如果你被要求这样做 你对谁负有义务?世界上的每个人?是否仅仅是您稍后将向其披露完成代码的人?如果去掉 Freedom Zero,就会出现一些合规性问题,并要求人们在进行修改时分享他们的私人修改。
现在,关于 Freedom Zero 的一个有趣的争论是,在许多针对人工智能系统的案件中,其中一种说法是:这些系统正在获取受版权保护的内容,在某种存储或内存位置上进行复制,这样它就可以在此基础上进行训练并在此基础上提取和创建权重或向量。一个有趣的问题是,对于任何版权,在你的系统中制作副本,这难道不是对 Freedom Zero 的一种实践吗? 为了分析、检视、摆弄这些数据副本,并想出一些新的东西。如果你在创建权值或向量,它们在你的系统内部,你不会和其他人共享,你只是允许输入进入,并分享输出。Freedom Zero 不应该控制这些权重和向量吗? 这就引出了一个更重要也更有趣的问题,如果你要说权重和向量,它们是创建人工智能系统中最重要的部分。当这些值或参数大量且不断地处于变化状态时,你如何使它们开放? 大多数人都知道在很多这样的系统中有数十亿个参数,它们每一秒或每一分钟都在被无数次地改变、修改和完善。如果你有义务在创建它们的时候分享它们,而不是在分配权重或参数的时候,你如何着手遵守这一要求?
现在我要进行一些推测和预测,也许会讨论一些问题,将这一概念应用于人工智能系统的版权,特别是当它涉及到开放这些系统时,以及是否有其他解决方案需要或将会被考虑。
首先,现在是否有人工智能系统侵犯了版权? 当然,这是一个有重大争论和诉讼的问题。即使侵犯版权的行为仅仅是为了训练过程而临时存储内容。我认为现在或是总有一天,人工智能可能会进化到不存在使用任何受版权保护的材料的情况。确实有可能,这甚至不需要用到 “合理使用” 或是 “公平交易” 的法律诉讼分析。如前所述在如何评估合理使用或公平交易上,美国和其他国家有不同的算法,但它的实现方式是你应用一个有很多不同因素的算法,然后法院将事实情况套用于这些因素,然后在这些因素之间做一些平衡来得出结果。这通常需要花费大量的资金,以及很多关于事实真相的争议,以及算法应该如何应用以及算法的输出应该如何工作。我认为,合并学说里的功能性概念或想法与表达的概念是有道理的,它可能最终成为关于版权和这些人工智能系统必须解决的最重要的问题。这意味着,尽管有一个关于功能是否合并的事实调查,或者人工智能系统所使用的只是想法而不是表达,而非一个涉及平衡的多因素调查,你仍然必须站在法庭前面,面对关于这个算法的巨大争议。
我认为在某种程度上,这将是关于这些人工智能系统的重要辩论。这意味着如果我们假设所有这些都是正确的,或者这就是我们沿着这条路前进的方向以确保 40 多年来的开放性和开源软件,亦即存在于软件中的版权,以及使用该版权的许可。为了传达它并表达行使这些版权的要求,可能不再以一直以来适用于软件的方式持续发挥作用。如果情况确实如此,我预测在未来的某个时候可能会变成现实。
问题是我们应该做些什么来创建一个开源的人工智能系统?一个显而易见的办法是通过立法来解决这个问题。现在,在过去的几周里,我们看到法国提出了关于人工智能的立法,我想未来我们会在世界各地看到更多这样的东西。现在,根据我相当粗浅的法语和对该法律内容的一些描述,我认为法国的法律更多是针对将版权输入作为系统训练机制的问题。这与版权或法律权利的存在,与这些系统的输出是什么,或是这些系统的内部运作都无关。当然,还有其他立法举措,特别是在美国和欧洲,我们最近在美国看到一些有影响力的大咖在国会作证。但这些主要集中在出于安全原因应该如何监管人工智能,而不是围绕人工智能系统应该受到哪些法律保护?现在的问题是,立法是答案吗? 很有可能是。或者你可以想象这样一种情况,某些国家的法院,或者是关于如何通过条约在世界范围内管理版权的国际体系,会聚在一起说,我们需要找到一种方法,以确保有某种方式为内部工作提供一定程度的保护人工智能系统,包括它是如何生成权重和向量的,以及这种保护的效果是什么。这可能发生在欧盟和美国。我担忧这些系统将会变得更加复杂。实际上,这些权值和向量,在某种程度上根本不需要人为的输入来决定这些权重和向量。它们都是机器生成或机器提炼的,以至于他们无法将其归因于任何人为输入,这可能是一个问题。版权是否能在这些事物中存在。美国宪法可能是这方面的障碍。
现在,如果要为这些系统的内部工作,特别是参数产生和创建的方式,立法提供某种程度的版权保护,这可能有助于为这些东西制定一个许可证和开放许可计划。但正如我们所知,通过软件版权,一旦你给任何东西附加了版权,就会有一群人想要把事情专有化(私有化)。他们会想办法让它不开放,他们想要把它变成私有的,他们想要对其他人强制执行他们的权利,以防止其他人试图做类似的事情或利用这些东西。所以这是一把双刃剑,如果你想在权重和度量方面取得某种法律上的权利,或者是人工智能系统的向量和参数。现在,这可能只是像 copyleft 这样的东西的问题。你可以设想这样一种情况:有人说,我想让我的权重和向量开放。我不会对如何使用它施加任何下游要求。所以你可能根本不需要许可协议。在这种情况下,你可以尝试在你可以这样做的地方将它奉献给公共领域,或者使用像 CC0,你把它奉献给公共领域,你被允许这样做,并获得许可。
这个问题的另一个潜在解决方案是,如果没有版权保护,或者在某些重要的司法管辖区不太可能有版权,你可以用合同来代替吗? 所以,你能写合同说,我要把我创造的物件交付给你吗?如果我把这些给你,当你收到这些时,你需要遵循合同的规则,以及你可以用这些做什么。
现在,使用合约来开放的问题已经在开源领域争论多年了。有些许可证特别声明它们是合同,并且可以作为合同强制执行,一些许可证则对此保持沉默。在某些情况下,其中一些许可证是由人们传播的。他们刻意说他们的设计不是为了通过合同强制执行。这是一个当前的课题,也是一个长期争论的课题。然而,合同的问题在于,它给国际与多方的协作方式带来了复杂性,因为你会有成百上千种不同的规则来解释特定的合同,或承包商是否有效,或合同如何生效,以及这会如何影响下游合同接受者的行为。
此外,在某些司法管辖区,比如美国,你可能还需要担心合同法或版权法是否会优先于你所签订的任何合同。因此,在美国有一种原则叫做 "优先权" 的理论 - 如果你所做的一切真的只是在合同中传递版权权利,那么你就不能用合同来限制原本受版权法管辖的权利。你必须使用版权法。这个问题的另一个可能的解决办法是公开承诺。因此,在开源中使用公开承诺作为一种表明什么是良好行为的机制是有历史的。也许,让人们承诺他们会遵循这种良好的行为。
人们最熟悉的两个例子可能是在 21 世纪初,当人们高度关注专利对开源的威胁时,各种实体在开源软件中协作,并对他们的专利组合和范围做出了承诺:他们不会对某些开源代码或所有开源代码强制执行这些专利组合,或者针对所有开源代码的某些专利。他们的承诺各不相同,但总的来说,不同的人对专利和开源代码做出了承诺。
还有一个 GPL 合作承诺,这是一些积极创建 GPL 版权的人,就他们愿意执行 GPL v2 的机制做出的承诺,其方式不会对开源应用的整体生态系统造成危害,并确保人们不会在有机会修复代码之前就因为小失误而失去取用代码的权利。
现在,这些承诺的效果在很大程度上取决于它们被采用的广泛程度,它们如何影响其他人的行为,它们在多大程度上可以对承诺人强制执行,以及承诺实体是否有可能撤销他们之前做出的任何承诺。这类承诺也有一些缺点:它们从来没有在开源世界中被打破过或产生争议过。但这是这种承诺的潜在缺点。
所以我认为 OSI 目前组织这些关于这些问题的网络研讨会恰是时候。我们一起开始重新思考 40 多年来人们是如何看待开源和软件的,以及开源与人工智能的未来。在这个系列中有很多讲者会从哲学的角度进行讨论,什么是开放和人工智能?我认为这个过程的最终结果将会导致人们重新思考。在这种情况下,每个人对开放的看法,我们对软件开放的看法,可能不是我们想直接应用于人工智能的东西。我认为我们也需要从法律上讨论,如何到达我们所到达的哲学终点?
关于人工智能的开放的过程中,我们可能需要重新思考一些基本的东西。过去 40 年的法律前提,关于如何通过 OSI 已经传播了许多年的许可证来合法地开放,可能还需要一定程度的立法改革。因为目前的立法状况可能不足以允许一种可靠和可执行的开放方式。人工智能的创造者们可能需要通过某种方式,就应遵循的规则达成广泛共识。这可能包括或不包括承诺,这取决于如何评估其他因素以及得出的结论。
好了,这就是我关于这个话题的全部内容。我给大家推荐了一些进阶读物。首先,幻灯片上牛津大学出版社出版的的这本书有一个免费开放下载的版本。里面有一章是我写的关于版权和开源。它描述了很多版权概念,以及它们与开源软件许可的具体关系。所以如果你想更好地了解合并原则之类的背景知识,合理使用和公平交易,这是一个很好的资源,你可以看看。
围绕人工智能的知识产权影响,法律界和技术学术界也在进行着非常热烈的讨论。现在,学术界还没有真正关注开放性问题。他们更关注的是人工智能如何测试我们在版权等方面的一些规则。但是,如果你真的想详细了解学术界是如何思考这个问题的,以及在某些时候,我们是如何将这个问题呈现给法庭的。你可能会想看看由许多在法律和技术领域非常受人尊敬的学者所编写的书目。那么,我就为大家介绍到这里,并进入现场问答环节。
McCoy Smith
Founding Attorney
作者丨McCoy Smith
翻译 | 刘天栋
审校 | 刘天栋
视频 | 陈玄
策划 | 李思颖、罗蕊艳
编辑 | 金心悦
【Deep Dive:AI Webinar】联邦学习-数据安金性和隐私性分析的思维转换
【Deep Dive: Al Webinar】人工智能数据隐私
【Deep Dive: AI Webinar】基于共享的数据治理
【Deep Dive: AI Webinar】数据合作和开源人工智能