0
第二十八期 ,科学  2017年1月30日

人工智能―西垣通教授采访

佐仓统教授(左)和西垣通教授

采访者:佐仓统教授

2016年9月2日  地点:东京大学大学院情报学环长办公室

佐仓统(东京大学大学院情报学环长):首先我想请西垣老师一边做一下简单的自我介绍一边给我们谈谈,我读了2016年7月由中公新书出版社出版的您的著作≪大数据和人工智能—-看清其可能性和陷阱≫。您在书中提到关于包括最新大数据或者科技奇点等在内的人工智能的话题,也提到文化及社会背景。写得非常有趣。我也读过西垣老师面向普通读者在1988年写的著作≪AI-人工智能的概念≫(讲谈社现代新书),感触很深。自那本书出版过了28年,今年又出了≪大数据和人工智能≫。我想您最基本的想法很多没有改变,在这时30年间加上了“大数据”,在内容方面,做了哪些改动,有哪些没有改动,请介绍一下您的个人经历的同时给我们说明一下吧。

西垣通(东京经济大学教授):我是在第二次AI(人工智能)浪潮的结束的88年的时候,写的那本书。AI浪潮迄今为止有三次,第一次是50年代到60年代。那时的关键词是“理论”,这一点说出非常本质的东西。AI被认为是计算机科学的一个领域,我认为原本计算机是为了人工智能才被开发出来的。当然,最初的应用软件是为了用于科学技术的计算和事务性的计算为主,图灵和冯・诺依曼等先驱明显是为了创造能思考的机器。其背景有理论主义。我认为他们当时有这样一种想法,就是说有准确地记述世界的理论命题群,将它们根据形式上的规则组合起来,就会出来真理。

    AI的起源被认为是1956年达特矛斯会议,在此之前也有对思考机器憧憬的背景。但是,第一次AI浪潮遭遇挫折是为什么呢,那就是因为只是凭借理论能解决的事情非常之少。也就是智力游戏和简单的游戏而已。难的游戏,比如国际象棋和象棋,各种局面太多,当时还不行。能做的只是toy problem。现实世界的现实问题要更加复杂得多。当时也有机器翻译项目,遇到多义词和语法的例外,就一筹莫展。

    说说日本的事,在50年代基本没有计算机,也没有AI浪潮。日本的AI浪潮是80年代,世界的第二次AI浪潮。这时我作为计算机的研究人员在斯坦福大学学习。当时的斯坦福大学和卡内基梅隆大学、麻省理工大学齐名同为研究AI的圣地。研创建专家系统的爱德华费根鲍姆是学部部长,非常有人气。我也受到很大影响(笑)。

佐仓:在斯坦福大学学习几年?

西垣:从80年到81年。

佐仓:正是第二次AI浪潮的时候啊。

西垣:我的博士论文导师,东大的大须贺节雄老师也是AI的研究者。因为这个理由从第二次AI浪潮开始,我对AI开始感兴趣。

佐仓:回顾一下西垣老师的经历,东大工学部计数工学科毕业后,进入日立公司。在日立的时候去斯坦福大学留学的吗?

西垣:在日立,狭窄的意义上讲,专门领域是操作系统,制作操作系统的数学模式。这个领域和AI没有什么关系,但是出去留学了,就自由了(笑),去学学AI的课,去听听专门研究课。当时,不只有费根鲍姆教授,AI研究大伽有很多。在那个环境中,思考很多,回国之后,写了那本书。写书的时候,已经辞去日立的工作,到了大学执教,教教养课程学生计算机的初步课程。就这样,专攻就移到计算机社会论、计算机文化论领域,其核心部分是AI。因为,计算机和人一样思考就是AI。首先,说“机器能否会像人一样思考吗”,这是最根本的问题。

    第二,AI浪潮的关键词就是知识。代表性例子是专家系统,用来理论性地表达专家所拥有的知识,然后用计算机来很好的组合就可以了,这是基本想法。

    日本在80年代,产官学一起成立了开发第五代计算机的项目。我本人刚从美国回来不久,作为日立的工程师,虽然时间不长也参加了该项目。这个项目是日本计算机史上最大的项目。总共花了500亿日元,以没有取得任何实用化而有名(笑)。

佐仓:这个项目不只是西垣老师,谁都会觉得“不怎么地”。关于第二次浪潮的核心概念“知识”,想再听听您的说明。第一次AI浪潮的核心是理论,即逻辑,第二次浪潮则是聚焦在“知识”上。这是因为只是依据单纯的理论的推测(logical reasoning)能解决的只是Toy problem,如果要解决日常生活中的各种问题,必须驱使专家的知识,想通过计算机来实现,是这个意思吗?

西垣:第五代计算机的目标正是这个。具体是怎么做的呢,就是将“知识”作为理论命题,然后通过计算机的自动推论来组合。高速的并列推论机器是第五代计算机。觉得好像很方便,几乎没怎么使用。第二次AI浪潮本身也在80年代末走向退潮。因为人的知识理论性并不是很严密,总是包含有暧昧的东西。比如,就算是医学知识,也是统计性的,也就是“有这个症状,则有这个病的可能性很大”而已。所以,不看内容,单纯地将理论命题在形式上进行组合,恐怕得到不着边的奇怪结论。我认为这是根本的难题。

佐仓:没有精准地捕捉到人的知识,是这个意思吧。

西垣:人的知识中有暧昧性,人类专家的见识,不只是将基本信息单纯地计算就可以,而是也要依靠直觉进行综合地判断。(计算机)这个地方不一样。比如,过去有一个自动诊断细菌性的血液疾病的专门机器(MYCIN),并不实用。可能是因为误诊时的责任问题吧。

    在这些历史的基础上,第三次AI浪潮会究竟会怎么样,大家都想知道。第三次浪潮的关键词是“统计和学习”。基本想法就是“就算错,差一不二也可以,错了再学习就可以”。比如,自动翻译机,多义词和语法的例外有很多,很难根据文脉总是翻译得很正确。但是,想一想,世上有用例。多多收集例句,拿出可能性最大的例句就可以。英语单词dog,有狗的意思,也有无聊的意思,如果用例几乎都是狗,那翻出狗就可以,就是这种想法。

    但是呢,请回想一下第一次AI浪潮的关键词“理论”。AI的最大的优势是“计算机不会犯逻辑错误”。 图灵和冯・诺依曼等为了创造能正确思考的机器。现在,想法发生了改变,就是允许一点点错误和误差。不能无视这一部分。根据统计,AI的应用范围一下子可以拓宽。

佐仓:不是理论上的吻合,而是优先日常生活中实际上的使用方法。

西垣:对类型的认识就是一个典型。这个领域,在我还是学生的时代就有了,是非常难的技术。计算机对类型进行分类,理解图像很弱。据说这个地方是和人的差距。可是,以统计处理为基础,让机器进行学习,在这个领域取得了突破,正是现在受到瞩目的深度学习这项技术。可以说因此点起了第三次AI浪潮的导火索。

    就因为“统计”是关键词,才需要大量的数据。我写的书的题目也有“大数据”这个词,深度学习得以成功无疑是因为从互联网上收集了大量的数据。深度学习的基本思路本身,实际上过去就有。只不过是因为数据太少,处理能力不够才没能见到天日。深度学习的类型认识技术的长处是从数据中自动取出认识对象的类型的特征。一般情况是在外部由人将类型地特征输入,而深度学习则不需要这样的处理,计算机自己就能发现类型的特征。这一点具有划时代的意义。只不过要实施需要庞大的数据量。实现了这一点才掀起了第三次AI浪潮。

    再把目光放到日本,关于第三次浪潮,日本是后追上来的。关于深度学习,也是欧美领先。不过,机器人方面不是这样。日本原本在工业机器人等的研究是世界第一、德国首先提出的工业4.0,在工业4.0中,计划要将工厂本身通过AI智能化,即“智能工厂”。工厂一般生产普通、大量规格的产品。在此计划中,不是这样,通过AI工厂可以自动生产多品种小批量的产品。所以才叫工业智能化。德国和日本等发达国家的人件费高,和发展中国家相比在价格竞争上无法取胜。但通过智能工厂的话可以将制造业复苏。在这样的领域,日本在工业机器人领域拥有高度技术,有望取得成功。如果很好利用AI和机器人的话,可以期待有效生产精密产品。

西垣:不错。重视理论的德国毫无阻碍地接受智能工厂,但丰田的技术员估计会抵触。会说“比起AI,还是人做得更厉害”。不过,我也正是期待这个想法,我也认为机器和人在根本上还是不一样的。所以,日产、丰田和本田那样的工厂人和AI联手的话,新工业4.0会发展的很好。

佐仓:刚才说的是工业4.0,而日本接着提出社会5.0的倡议。说到社会是意味对人交流、看护、福利等,从西垣老师以往的论调和著作来看,这样的内容您认为是否有些难呢?

西垣:说道社会5.0,应该是文化和社会活动是否能智能化这样的内容。关于此,想到流行一时的“全在社会”的构想。“全在”技术,供应方就是工厂和医院等取得很大成功,但没有进入消费者的生活中。这也很正常。到家后,浴室的热水烧好了,暖房打开了,这样的需求几乎没有。普通家庭只能用便宜点的感应器,还不能维护,坏了就没辙了。弄不好,到家后,洗澡水变得滚烫。也就是说,“具体要实现什么”预测得不到位。但是,工厂和医院能维护这些设备,还可以花细细的功夫,提高效率,有好的一面。这方面不好好反思一下不行。

佐仓:不能一味地拓宽适用AI的场面,需要考虑更适合哪些地方使用。

西垣:是的。我反对“社会5.0”要针对整个社会。特化于工业方面可以,关于“社会5.0”,文科媒体论的研究人员的认识和理科的信息技术研究者的认识之间总有一个沟壑。

佐仓:确实工厂和医院的目的很明确,和整个社会相比内容也少,也好控制。所以,专门系统在一部分上取得了成功。但是拿到整个社会上,情况复杂多样,像刚才您说的一样受限经济状况只能用比较便宜的设备,烧个热水,打开空调也不是那样难,做成自动化,也不是很给力(笑)。人亲手能做的不起眼的事,要让机器应对在日常生活中的各种场面其实很难。也就是说越是日常中的琐事越难。应该说技术人员对那些事情的想象力很缺乏……

西垣:如果凡事以技术为中心,对人和社会的洞察就不足,我是有这种感觉啊。

佐仓:我认为培养具有这些洞察力的专家很重要。换下一话题,我读了西垣老师在1988年出版的≪AI≫,印象最深的AI或者在电脑科学上,犹太基督教、或者一神教的想法背景非常强,和正如刚才您说的以莱布尼茨等典型的形式上的理论形式,有密切的关系,写得很有说服力。我读这本书的时候还是研究生,先不说技术,我当时还在漠然地认为科学是普遍的,不受社会以及文化影响,可是书中说到AI或者计算机科学和历史以及文化背景有着根深蒂固的联系,我感觉很新颖。第三次AI热当然也和社会、文化背景息息相关,而且,刚才您也批评说电脑技术人员对这方面缺乏想象力(笑)。想让您介绍一下关于AI热或者科技奇点论的背景和文化背景。

西垣:关于科技奇点,有个叫雷蒙德·库茨魏尔的哲学家宣传说2045年会出现超越人类能力的AI。他的著作≪The Singularity is Near≫在2005年出版当时,没有受到什么批判。随着深层学习出现了第三次AI热,他受到了关注。他的预测是根据LOAR(The Law of Accelerating Returns)的想法。我想您知道半导体的摩尔定律,即“集成电路上可容纳的电晶体(晶体管)数目,约每隔1年半便会增加一倍”的定律,就是近似将这个一般化的东西。电脑的能力和指数函数一样在递增,而人脑神经细胞却是优有限的,反应速度也远比电脑慢。所以就说人一定会被赶超就是这个意思。那本书,除此之外,未来技术和现行技术混淆在一起,是非常逗乐的一本书(笑)。

    关于科技奇点假说至少有两个问题。第一,人的智力是否可以用一次元的尺子来衡量。这个假说的支持者从对人脑和电脑的比较开始,这里有个巨大的疑问。脑固然很重要,其基础是有身体。人是多细胞动物,身体的细胞群和生态系互相影响而活动。只是针对脑是不够的。

第二,关于科技奇点假说,我有疑问的是我觉得并没有对生物和机器的区别进行严密的思考。机器可以对过去的数据进行高速处理,环境条件具备的话,效率极其高。而生物虽然也是根据记忆有习惯性,但是在一边应对实时的状态一边生存。总是不断有协调性地创新。是在剧烈变化的环境当中赖以生存的生物。确实,人这种生物,具有一种在理论模式上捕捉环境,试图有效生存的一面,但不仅如此。基本上是随遇而安,有协调性的生存。相反,机器只是形式上处理过去的数据,对新的事物完全无法对应。而反被过去的事情牵扯,有可能做出完全不合实际的事情。生物和机器在能力的本质上不同,说AI的能力能“超越”人,我不敢苟同。

    也即是,论点有两个。首先,只考虑脑模式是否可行?还有身体。脑在进化史上,比较最近才出现的,尤其理论性脑发达的生物不多。生物40亿年的进化中,30亿年左右只是以代谢活动为中心的单细胞。多细胞的人只不过单细胞的集合体。其次,机器是根据过去的数据,进行定型处理,而每个细胞则是在顺应实时而活。而无视这些不同的科技奇点假说不能不说很粗暴,这是我批判的主要点。

佐仓:我想机器也是在学习,采用身体性能,在不断的下功夫。说到底现在的AI热的开端是深层学习研究,其根源是1980年代的人工神经网络研究。此外,在机器人研究领域,在实际空间中行动,必须考虑有身体性能的想法在以前就有,有“机器人世界杯”让机器人竞争踢足球。虽然还是很单纯很简单的水平,按照这样下去,机器人的学习能力不断提高,他们或许认为总有一天能超过像您刚才说的“极限”吧。

西垣:他们是这样认为的吧。

佐仓:这一点绝对不可能吗?

西垣:为什么说不行是因为机器基本上是“开放系统”,他律的系统。没有真正意义上的自律性。进入AI中的理论深层,达到深层学习成立的过程很苦困难,但是加把劲的话完全可以严密地找出。因为基本上是人在外部给予的规则,也就是根据程序而来。学习机器中规则改变了,改变的方式便是让它遵循外部给的后设规则。而生命体不是这样。生命体是“闭塞系统”,自律性的系统,有在根本上的不可知性。也即是在自己的内部有自己的规则,外部无从知晓。顶多是推测。比如,给生物和机器发一个信号,生物的话有自律性,可以解释意思进行选择。但是,对机器发出指令,只能做定好的行动。这不论是学习机器还是什么机器都一样。经过深度学习的AI的行动不是很好懂,就因为不好懂就说“和生物一样”这样的论点是错误的。

佐仓:您是说,对这个区别,如老师所述进行“过小评价”则是因为在背后的潜意识里有这个世界的造物主连人也可以创造这样的想法是吗?

西垣:不错。根据将造物主论世俗化的朴素实在论来思考的科学家和技术人员太多了。沃森和克里克这样的大学者对生命体也是站在当成机械般的来捕捉的立场。造物主构筑了理论的世界,在观察世界。他们说,“如果这样,生命体中也有和机器一样的规则。你不是说生命体中的规则不知道吗?为了解开这个谜,科学家才在辛苦地钻研”(笑)。而且,你要反对,他们就批判说“你那是陈腐的神秘主义”。如果站在如神一般的立场,也许会这么想吧。

    可是,我的基础信息学不是这样。基础信息学和其他的信息理论的本质区别在于,“观察者的视点是否是相对的”这个点上。如果决定好一个要观察的视点,以此来描绘客观世界,就容易成为朴素实在论。但是,这样来捕捉世界太过于片面了吧。现实中存在的是我看到的世界,佐仓老师看到的世界,再广泛一点就是各个生物构成的多彩的世界。但是,并不是唯我独尊的世界。在互相交流之中,才能产生一种共同性。这种想法并不是我提出来的。广泛地说,是始于德国哲学家康德。康德主张人所看到的世界不是物体本身,而只不过是一个现象,他的想法被奥地利的胡塞尔继承,德国的海德格尔论述了从人的日常生活到世界的形成。虽说有造物主的传统,欧美的优秀的哲学家在观察世界的视点上,想得很深。相对的世界观在文科的学问上在某种意义上是一种常识。因为在文科和理科之间对信息的认识方式有隔阂。我认为这才是最大的问题。

    说到社会5.0这样的话题,就会出现这样的问题。文科媒体论学者之中,研究海德格尔哲学基础的人很多。相反,计算机学者不是这样,而是根据克劳德香农的信息论来的。香农的信息论,没有余裕去解释信息的含义。关于这个问题,斯坦佛大学的有名的AI研究者Terry Winograd在80年代就提出来了。我在≪AI≫这本书中引用过Terry Winograd。同样的问题依然被提出,不应该被回避。

佐仓:要说小的现象,或者能明确分开适用范围的,在其内部的理论,还是很好懂。比如“这样做,电话会听得很清晰”,这样说就会很简明易懂,也有实际的功能。说计算机通过互联网可以自律,这是将机器和人分开来考虑,也是很易懂。相反,说“那只是一部分,整体来说更加复杂”,就算有一部分很简单,是否可以说整体很简单,或者能否应用到现实问题上,我认为很难说。在现象学上联想一下,1972年出版了≪计算机做不了什么?What Computers Can’t Do: The Limits of Artificial Intelligence的于贝尔德雷福斯(Hubert Dreyfus)是现象学者,将海德格尔介绍到英语圈,不过他这样的人在批判当今AI研究的方式,我觉得和您说的有相通之处。仅仅通过唯物论,一元论的手法人工地再现人的智能很难。但是相反,唯物论、一元论的方式简明易懂,在某些部分很成功,也具有一定的说服力。我想有必要在这里先停下脚步,在从新审视一下科学奇点论等想法,相反,包括日本在内,世界整体围绕文科的人文学科的学问环境十分严峻。外部也有人说“取消人文科”之类的意见,听您刚才说的来看,我觉得这是一个非常危急的情况。

西垣:不错。德雷福斯的议论我也一直很关注。具体说,刚才说了日本的机器人很强。现在媒体说的AI机器人,好像在说AI和机器人融合一样,实际上,从技术的源头来看,两者相当不同。在欧美AI是一贯的题目。是因为一神教的想法中,有个“AI一定能来”的信念。对此,日本人在机器人领域很强,就是说物理上的机械技术。就算有杂音,也能很好运作的工业用机器人的技术非常高。在这里,经常被说成和“万物皆有灵魂”这个泛灵论的想法相关联。

    在西方,有一种“人的正确思考是没有矛盾的”的想法。日本不是这样。重视包括有矛盾在内的直觉的理解。与其说神根据理论规则创造万物的,不如万物皆有灵魂的想法更耳熟能详。所以,日本人对机器人好像人一样在动,像人一样思考,没有觉得很怪。我认为这些才是现在必须思考的关键点。

    让机器人好像具有感情一样的拟人化能做得很好,有人就说“这个机器人好像有感情呢”。但是,感情是生物在进化过程中产生的。为了从敌人手里逃出而产生的“恐怖”,为了育儿具有的“爱”等都是为了生存。

    感情这个东西,和主体性和自由意志等概念有着密切的关系。现在成了热门话题的是机器人武器。已经让无人机器人和无人飞机攻击敌人了吧?不仅有误爆,当然会遭到反对。有意见说,“让机器人附带同情的感情,或者让机器人持有道德观即可”。但是,我反对这样的意见。因为道德和自由意志不可分割。那么说自由意志是什么,这是一个难题,至少如果没有选择的自由,就不能让其负责人。可是,机器人只是根据指令而动,没有选择的自由。机器只不过是他律的存在,根据自律性的行动无法问责。其实,是人给输入的程序,却根据泛灵论,说“不知道结果会怎样。机器人自己做的判断,属于机器人的责任”。很有可能有人说“这个机器人很可爱,如果发了脾气,不知道会做出什么”这样的荒谬的言论。

佐仓:不能这样是吧?

西垣:让机器人学习道德,相当的大伽好像也在这么说,我不能苟同。也就是说,让机器根据人的指示,如实高效地工作,如果出现问题,做出指示的人负责人就行。也许是很平庸的想法,人要会存活下去,这才是更好的想法。因为机器是人做出来的。如果是“AI做AI”,机器的动作实际上不透明,就会引发大乱子。

   恕我赘言,第五代计算机的失败的真正原因是没有直接面对人的思考中存在的理论的暧昧性这个难题。只是在追究高速推论技术。像语言学、记号学还有哲学等,在和交流等文科相关的学问无关的地方进行开发。如果要研究有效的AI研究,文科和理科的智慧绝对要很好的融合。

佐仓:我想学问的领域之间的隔阂是一个大问题,这一点正如您所说的,还有一点,听您的话我想到的是,在日本学问和研究与实际社会及日常生活没有联系上。这不只是理科的研究员的问题,哲学、人文以及社会学领域恐怕也一样。欧洲的哲学家们胡塞尔也好,海德格尔也好,我想他们自身的理论和自己的生活的一部分先关联。那也许是欧洲哲学对社会有那么多影响力的理由吧。可是,日本进入近代以后,开始引进西欧哲学,读了多少哲学课本是对哲学研究的主要评价标准,我想就是因为这样,日本的学问和生活的联系以及在现实社会中缺乏真实感,不是那么羽翅丰满。

西垣:我赞成。学习外国的先人的业绩很重要,在这个基础上,建立自己的假说,再将假说还原现实社会,学问才能渐渐地成为真正的东西。可是,在日本,如果属于某个学派,在那里根据典范积累业绩即可。这样一来,像在AI那样的的跨越多个学术界的领域中,就很难拿出成果。日本的学术界对根据自己的思维深远思考的人,应该更加重视。

佐仓:这不仅仅是学术界的问题,我想也是日本社会的缩影。现在,不仅是日本,人文系在世界上受到冷遇,在这样的氛围中,和犹太基督教具有不同的文化传统的日本,在学问中的人文系应该起到的作用,在社会中人文应该起到的作用,应该发挥出自己的特色,也一定具有潜力,但遗憾的是没有发挥出来,要改变这个现状应该是我们的义务吧?

西垣:世界有一个共同的倾向吧。只不过,日本已经不是发展中国家,既然已经是发达经济大国,年轻人更应该好好学习,希望达到可以在跨域学界上进行论战。

佐仓:日本也在渐渐朝这方面发展的是吧。

西垣:比起过去,还是有很大希望的。总结一下日本近未来的AI的可能性吧。重新确认一下,日本在机器人领域通过细微方面的专研在世界上具有最高水平,但是,所谓的AI哲学和技术层面的专研在目前还仍然有一个很大的隔阂。所以,重复一下,让机器人附带感情,让机器人负责人的尝试应该停止,应该将其当做工具在细微的地方下功夫研究。比如,对人来说容易使用,这些容易使用的看护机器人可以期待。之后还有通过AI自动驾驶技术,在老龄化社会非常重要。应该注意的是,来自一神教的人类机械论,加上泛灵论,将责任转嫁给AI机器人,这样的事情不可行。在理解思想背景的不同的基础上,可以发展日本特色的AI研究。

    AI发展了,人类应该干什么去就会被提出疑问。人类和机器的新关系成了问题。人不会失业,但是人的工作内容会随之改变吧。无论如何机器也做不好的领域,人可以来完成。具体比如说,最近的检票口,机器可以剪票,关于咨询由人来负责回答。比如外国人来提问,因事故车辆延误,有很多事情需要咨询。能随机应变,解决问题的还得是人。如果让AI做这样的事情,会因所谓“框架问题”受挫。环境条件在流动地变化,对机器来说,筛选问题,做成框架很难。

    还有一点,除了开发AI程序,维护修理的工作也会增加。AI并不是自己就能动。还需要人来做,为维护。让AI做所有的事情,并让其来维护,那是幻想。包括维修的程序在内,开发什么样的AI,必须综合考量。也就是,需要适当地判断“这个工作交给人来做合适”“这里机械化合适”。可是,不管什么都想让计算机做才觉得有意思,效率高,这么想的人很多。虽然维护不知道过去是谁做的程序,谁都不原意去做。

佐仓:像Fortran那样,用不在使用的计算机语言写的程序什么的(笑)。

西垣:包括开发和维护在内,如何进行人和机器的分工是个问题。在这个领域,日本要是好好做的话,在广泛的意义上来讲,就是“精心款待”啊。应该将无论什么都让机器做才觉得是进步的想法需要改掉。

佐仓:也就是除了特定的某个领域外,或者是福利、或者是看护、或者是经营判断、或者自动驾驶、或者是军事,不是或是人或是机器,如何打造和涉及一个“人机机制”,让人和机器互相合作,更好的完成,某些工作。

西垣:是的,这很重要。所以不要被科技奇点所困惑,看看现实,去专研需要的人机接点,如何呢?

佐仓:是啊。毕竟是为了人的便利和幸福,才需要机器人和AI,这个根本不能搞错。为此,日本传统文化具有发挥巨大潜质的可能性。

西垣:嗯。我感觉日本人的某种平衡感可以期待呀。

佐仓:谢谢!

[为日本外交政策论坛特别采访。]


Managemented by 佐口尚志

返回顶部