采访MIRI新研究员Luke Muehlhaus金宝博娱乐er

||对话

第一部分:研究背景和核心思想

Q1。你的个人背景是什么?
Q2。我们为什么要关心人工智能?
第三季。为什么你认为比人类更聪明的人工智能是可能的?
第四季度。机器智能研究所的使命是“确保创造比人类更聪明的智能造福社会。”金宝博娱乐你的研究对这一使命有何贡金宝博娱乐献?
Q5。MIRI制造友好AI的方法与阿西莫夫定律的概念有何不同?
Q6。为什么有必要制作一个“€鲸我们想要的事情”?
Q7。如果危险的人工智能将要发展,为什么我们不干脆“€œ拔掉插头”€?
处置。为什么你和机器智能研究所专注于人工智能,而不是人类智能增强或全脑模拟?金宝博娱乐

第二节:研究区问题金宝博娱乐

九方。为开发人工金宝博娱乐智能的“友好内容”,您具体研究了哪些领域?
Q10。为什么你和机器智能研究所专注于人工智能,而不是人类智能增强或全脑模拟?金宝博娱乐
问题11:什么是价值提取,它与友好AI理论有何关联?
12个。概念心理学是什么,它与友好AI理论有何关联?
问题。什么是博弈论,它与友好AI理论有何关联?
Q14。什么是元伦理学,它与友好AI理论有何关联?
最喜欢。什么是正规性,它与友好的AI理论有关如何?
杆子有着。什么是机器伦理,它如何与友好AI理论相关?
杆子有着。在友好AI理论中有哪些未解决的问题?
Q17。2010年末,机器智能研究所发表了“€œ永恒决策理论”。金宝博娱乐什么是永恒决策理论,它与友好AI理论有何关联?
Q18。什么是反思决策理论,它与友好的AI相关如何?
问题19。你能举个具体例子说明你的研究是如何解决Friendly AI中的一个或多个开放性问题的吗金宝博娱乐?
Q20。为什么€™没有机器智能研究所生产出任何具体的人工智能代码?金宝博娱乐

第三节:少错与理性

Q21。你最初引起机器智能研究所的注意,是因为你在“少错”上很快获得了超过10,000个业力点。金宝博娱乐对于那些不熟悉它的人,你能告诉我们什么是Less Wrong,以及它与机器智能研究所的关系吗?金宝博娱乐
Q22。最初是什么让你对理性感兴趣?
Q23处。你最近夏天在伯克利的理性迷你夏令营担任讲师。你能告诉我们一些关于理性阵营的事吗,那里的人都做些什么,你教了些什么,等等?
抓起。“少错”组织除了是一个网站外,还在世界各地聚会。如果我感兴趣,我可以去哪里参加这种聚会,聚会上会发生什么?
Q25。最近发布的战略计划提到了“€œ将理性培训提供给另一个组织,这样机器智能研究所就可以专注于友好人工智能的研究。”金宝博娱乐你能给我们介绍一下吗?

第四部分:机器智能研究所运作金宝博娱乐

Q26。你和路易·赫尔姆9月1日被雇佣。你们俩是怎么被雇来的?
问。Louie Helm作为发展总监是什么?
Q28。机器智能研究所刚刚从我们的夏季挑战基金中筹到了25金宝博娱乐万美元。这些资金将用于什么用途?
Q29:卡尔·舒尔曼是在你和路易之前被雇佣的。他在组织中的角色是什么?
Q30。机器智能研究所在寻找什么样的新研究金宝博娱乐人员?

Michael Anissimov:你最近被聘为全日制员工机器智能研究所。金宝博娱乐你的个人背景是什么?

路加福音Muehlhauser:我在大学里学的是心理学,但很快发现作为自学者,我学得更好更快。从那时起,我在科学和哲学的许多领域,一次一个,因为它们与我的兴趣有关。我€™写几十篇文章为了我的博客更少的错误,我主持一个播客我在其中采访了领先的哲学家和科学家的工作。我也对数学和认知科学感兴趣人为理性因为我希望我所做的研究能够得到貌似正确的答金宝博娱乐案,而不仅仅是那些让我感觉良好的答案。

迈克尔:我们为什么要关心人工智能?

卢克:人工智能每年都在成为一项更加强大的技术。我们现在有机器人这样做原版科学研究金宝博娱乐,和美国军队正在开发系统金宝博官方自主战场机器人这是做自己的决定。当它通过人类智力水平时,人工智能将变得更加重要,此时它将能够做好我们关心的事情,我们可以更好地关注 - 像治疗癌症和预防灾害一样的东西。

迈克尔:为什么你认为比人类更聪明的人工智能是可能的?

卢克:第一个原因是科学。人类智慧是一种肉类中的信息处理的产物。但肉不是一个理想的智力平台;它只是第一个进化发生的东西。如果我们能够弄清楚智能所需的信息,因此可以将硅的更快,更耐用,更灵活的平台更快,更耐用,更灵活平台的信息处理应该超越肉类上运行的智力的能力 - €“无论是更密切的方式大脑正在使用哪种算法或通过在数学中获得新的见解。

第二个原因是历史原因。在数百项特定任务上,机器的能力已经超过了人类:下棋或者危险在最近的一项进展中,阅读路标。几乎没有理由怀疑这种趋势会停止,除非科学进步总体上停止。

迈克尔:任务机器智能研究所(Machine Intelligence金宝博娱乐 Research Institute)的目标是“确保创造比人类更聪明的智能造福社会”。你的研究对这一使命有何贡金宝博娱乐献?

卢克:一种比人类更聪明、造福(而非危害)社会的机器智能被称为“友好的人工智能。” My primary research focus is what we call the problem of “friendliness content.” What does it look like for an AI to be “friendly” or to “benefit” society? We all have ideas about what a good world looks like and what a bad world looks like, but when thinking about that in the context of AI you must be very precise, because an AI will only do exactly what it is programmed to do.

如果我们能够弄清楚如何指定AI为“友好”的意味着什么意味着友好的AI的创建可能是发生的最好的事情。先进的人工智能可以更好,比我们可以更好,从而可以治愈癌症,治愈疾病,允许人类不朽,防止灾害,解决气候变化的问题,并让我们将我们的文明扩展到其他星球。友好的AI还可以发现更好的经济和政治制度,以改善每个人的条件。金宝博官方

迈克尔:SIAI制造友好AI的方法与阿西莫夫定律的概念有何不同?

卢克:阿西莫夫的机器人三定律对于管理机器人行为是广泛被认为是不足以确保智能机器不会对人类造成伤害。事实上,阿西莫夫用他的故事来说明这些法律可能导致意想不到的后果的许多方式。SIAI的方法是非常不同的,因为我们不认为限制人工智能的行为将在长期有效。我们需要先进的人工智能来实现我们想要的东西。如果AI想要的东西与我们想要的不同,它最终会找到方法绕过我们给它设置的任何限制,因为它拥有非常出色的智能。但如果我们能让人工智能拥有我们想要的东西,那么它将比我们在创造我们想要的世界——治愈癌症和发明永生等等方面更有效。

迈克尔:为什么有必要制作一个“想要同样的事情”€€?

卢克:一个想要与我们不同的东西的强大ai可能是危险的。例如,假设AI'€™的目标系统被编程为最大化乐趣。金宝博官方That sounds good at first, but if you tell a super-powerful AI to “maximize pleasure,” it might do something like (1) convert most of Earth’s resources into computing machinery, killing all humans in the process, so that it can (2) tile the solar system with as many small digital minds as possible, and (3) have those digital minds run a continuous cycle of the single most pleasurable experience possible. But of course, that’s not what we want! We don’t just value pleasure, we also value things like novelty and exploration. So we need to be very careful when we tell an AI precisely what it means to be “friendly.”

我们必须小心不要人格化。机器智能不一定具有我们的“€˜常识”™或我们的价值观,甚至是有感情的。当人工智能研究人金宝博娱乐员谈到机器智能,他们的意思只是说一台机器善于实现它的目标-无论它们是什么-€”在各种各样的环境。所以如果你让AI最大化乐趣,它就会这么做。它不会中途停止,并“€˜意识到”€™-€”就像一个人类的力量-€”最大化快乐不是€™的目的,它应该做其他的事情。

迈克尔:如果危险的人工智能将要发展,为什么我们不能“拔掉插头”€?

卢克:我们可能不知道人工智能是危险的,直到为时已晚。具有一定智能水平的AI会意识到为了实现目标,它需要避免被关闭,所以它会隐藏自己的智能水平和危险。

但更大的问题是,如果某些AI开发团队已经开发出了智能到足以构成危险的AI,那么其他团队就只落后他们几个月或几年。你不能只是把所有危险的人工智能都拔掉,直到世界末日。我们€™将需要开发一个友好的人工智能,可以确保安全比人类可以做得更好。

迈克尔:为什么你和机器智能研究所专注于人工智能,而不是人类智能增强或全脑模拟?金宝博娱乐

卢克:人类智能的提高是很重要的,可能需要解决一些更困难的问题,友好的AI。全脑模拟是一种特别具有革命性的提高人类智力的技术,如果发明出来,我们就可以把人类的思想上传到电脑里,以比神经元更快的速度运行它们,做备份,并允许永生。

许多研究人金宝博娱乐员认为,人工智能将先于全脑模拟出现,但预测未来技术的时间表可能很困难。我们对整个大脑模拟非常感兴趣,事实上这是我们的研究人员的演讲主题金宝博娱乐安娜班子在最近的一次人工智能会议上发表演讲。我们目前关注人工智能的一个原因是,在友好人工智能理论中有许多未解决的问题,我们现在可以在不需要进行全大脑模拟所需的大量计算资源的情况下取得进展。

第二节:研究区问题金宝博娱乐

迈克尔:为开发人工金宝博娱乐智能的“友好内容”,您具体研究了哪些领域?

卢克:一个相关的研究领域是金宝博娱乐认知神经科学,尤其是子领域神经经济学情感神经科学

世界对我们来说是“好”还是“坏”,取决于我们的价值观,而我们的价值观储存在大脑的神经网络中。几十年来,我们不得不通过观察人类行为来推断人类的价值观,因为大脑对我们来说一直是一个“黑匣子”。但我们只能到此为止,因为我们所处的环境非常复杂,这使得我们很难仅从行为中推断出人类的价值观。最近,新技术像功能磁共振成像TMS.光遗传学让我们看看黑匣子,观看大脑的作用。事实上,我们已经找到了似乎编码大脑的预期主观价值的特定神经元,以便我们在特定时刻考虑的可能行动。我们还学会了大脑使用的特定算法,以更新我们重视某些事项的特定算法 - 事实上,他们已成为计算机科学中首次发现的一种算法,称为时间差异强化学习。

第二个相关的研究领域是金宝博娱乐选择建模偏好引出。经济学家例如使用各种技术支付意愿测量,从人类行为中推断人类偏好。人工智金宝博娱乐能研究人员也这样做,通常是为了设计一种叫做决策支持系统金宝博官方。人类的大脑似乎没有编码一个连贯的偏好集,所以我们€™将需要使用选择建模和偏好引出技术从人类大脑实际做的任何事情中提取一个连贯的偏好集。

与友好内容理论相关的其他领域包括价值推断,概念的心理,博弈论,使得,规范和机器伦理。

迈克尔:什么是价值外推,它与友好AI理论有何关联?

卢克:大多数哲学家谈论"理想的偏好理论,但我更愿意称它们为“€˜值外推算法”。“€™如果我们想开发友好的人工智能,我们可能不想仅仅从我们的大脑中扫描人类价值观,并将这些价值观赋予人工智能。我想整天吃咸的食物,但我有点希望我不想那样,我当然不想让人工智能整天给我吃咸的食物。而且,如果我知道的更多,更理性,我可能会改变我的欲望。我可能会学到改变我想要的东西。人类不太可能达到道德发展的终点。所以我们并不想通过用我们当前的值编程AI来修复问题。我们希望人工智能能推断出我们的价值观,这样它就会关心我们想要什么,如果我们知道得更多,更理性,更道德,等等。

迈克尔:概念心理学是什么,它与友好AI理论有何关联?

卢克:一些研究人金宝博娱乐员认为友好内容问题解决方案的一部分将来自检查我们的直观概念“€˜应该”€™或“€˜好,“€™和使用此通知我们的照片就像我们认为一个好的世界,因此目标系统的超级强大的机器应该瞄准。金宝博官方几个世纪以来,哲学家们一直在研究我们关于“€˜ought”€™或“€˜good”€™的直观概念,但没有取得什么进展,但也许心理学和神经科学的新工具可以帮助我们更好地进行这种概念分析,比哲学家们坐在椅子上更好。

另一方面,心理学实验一直在削弱我们关于概念是什么的经典理论一些甚至得出概念在任何有用意义上都不存在的结论。心理学和哲学研究项目的结果可能对任何处理金宝博娱乐友好内容的方法都有深远的影响,这取决于对我们的直觉概念“€˜ought”€™或“€˜good”€™的检验

迈克尔:什么是博弈论,它与友好AI理论有何关联?

卢克:博弈论是一个高度发达的数学领域,与特定场景(“€~games”€™),代理人的成功取决于他人的选择。其模型和发现已应用于商业,经济学,政治科学,生物学,计算机科学和哲学。

博弈论与友好内容相关,因为我们的许多价值观源于我们在某些情况下做出决定的需要,而我们的成功取决于他人的选择。它也可能与价值外推算法相关,因为外推过程可能会改变我们的价值观和决策与他人价值观和决策相互作用的方式。

迈克尔:什么是元伦理学,它与友好AI理论有何关联?

卢克:哲学家经常将道德领域划分为三个层面。应用伦理学是对特定道德问题的研究:我们应该如何对待动物?撒谎是可以接受的吗?公司在环境方面有哪些责任?规范伦理学考虑我们在应用伦理学中作出判断所依据的原则。我们是否会基于哪个行为能产生最大的好处而对另一个做出判断?或者我们应该遵循一系列规则并尊重某些权利?也许我们应该提倡在无知的面纱后面我们所有人都同意的东西,因为无知使我们不知道我们的生活将会是什么样子?

元伦理学走一个水平更深。术语如“€~good”€™和“€~airtaigh”€™甚至是什么意思?是否存在道德事实,或者是所有相对的吗?是否有这样的事情是道德进步?这些问题与友好内容有关,因为大概,如果存在道德事实,我们希望AI尊重它们。即使道德事实不存在,我们的道德态度也是我们所重视的一部分,这与友好内容理论有关。

迈克尔:什么是正规性,它与友好的AI理论有关如何?

卢克:规范是关于规范的,有很多种。审慎规范关注我们应该做什么来实现我们的目标。认知规范涉及我们应该如何追求知识。Doxastic规范涉及我们应该相信什么。道德规范关心的是我们应该如何合乎伦理地行为。等等。

对规范性的经典关注是是应该的差距。“™所谓的,你不能从”是“€™声明到”€“€”€™声明。它没有逻辑上遵循“我面前的男人”,“œi应该帮助他。”实际上,这是微不足道的桥梁是应该的差距说到谨慎规范。“如果你想要Y,那么你应该做X,”是“做X将增加你获得Y的机会”的另一种说法。第一句包含了“应该”€™声明,但第二句将其简化为关于自然世界的纯描述性句子。

一些哲学家认为,“€˜是应该的差距”€™可以用同样的方式弥补认识和道德规范。也许“你应该相信X”只是意味着“如果你想要真实的信念,那么你应该相信X,”€反过来可以简化为纯粹的描述性陈述“€œ相信X将增加你的真实信念的比例。”€

但还有其他的规范吗?是否有“€˜绝对的”€™应该不依赖于“€œ如果你想要X”条款?博物学家倾向于否认这种可能性,但也许绝对的认识论或道德的应该可以从博弈论和决策理论的数学推导出来,正如博物学家加里·德雷舍尔(Gary Drescher)在好与真实。如果是这样的话,最好将它们包含在友好内容理论中,这样AI才能尊重它们。

迈克尔:什么是机器伦理,它如何与友好AI理论相关?

卢克:机器伦理是研究两个主要问题的几个名称之一:(1)我们如何让机器行为道德,(2)哪种类型的机器可以被视为真正的道德代理(在拥有权利或道德价值的意义上像人类的可能)?到目前为止,该领域的大部分工作都是只与“€~narrow ai”的机器相似,这些机器与人类的差异几乎是智能,但两个可能对友好的ai有用的研究方向金宝博娱乐机械化道义逻辑计算元伦理学

不幸的是,我们对“友好的人工智能”(€”)和尚未发明的人工智能技术(€”)的理解是如此原始,以至于我们甚至不确定哪些领域会产生影响。似乎认知神经科学、偏好启发、价值外推、博弈论和其他几个领域都与友好型人工智能理论相关,但当我们更好地理解友好型人工智能时,我们可能会发现有些研究途径并不相关。金宝博娱乐但我们能了解这一点的唯一途径是继续在相关的研究领域取得渐进式的进展。金宝博娱乐

迈克尔:在友好AI理论中有哪些未解决的问题?

卢克:如果我们认为关于友好内容的问题,一些开放问题是:大脑如何选择它将编码预期主观值的一些可能的行动?它如何结合绝对值和概率估计来使这些预期的主观价值计算?存储的绝对值在哪里,它如何编码?我们如何从人类大脑中提取从此活动中的相干效用功能或偏好设置?我们应该使用哪种算法来推断这些偏好,为什么?推断后,两种不同人类的值会融合吗?所有人类的价值会融合吗?所有众生的价值会聚吗?人类认知神经科学的细节是否会很多,或者这些细节将通过价值系统和游戏理论的更高级别的数学结构来获得“粉丝”€™?金宝博官方如何在AI的目标系统中实现这些外推的值?金宝博官方

友好内容只是友好AI理论中有待解决的问题之一。还有很多其他问题。当代理能够直接编辑自己的源代码(包括决策机制的源代码)时,它如何能做出最优决策?我们如何让AI在更新本体的过程中保持一致的效用功能?我们该如何创造一个偏爱外部世界而非奖励信号的AI ?我们怎样才能把机器感应理论推广到€”称为Solomonoff感应-€”,从而可以使用更高阶的逻辑和正确的理由,观察选择效应?我们如何接近这样的理想过程,使它们是可计算的?

无论如何,这是一个开始。

迈克尔:2010年末,机器智能研究所发表了一篇论文金宝博娱乐“永恒的决策理论。”€什么是永恒决策理论,它与友好AI理论有何关联?

卢克:决策理论是研究如何做出最优决策的学科。我们对不同事物的价值不同,我们不确定哪些行为会带来我们所看重的东西。传统决策理论不能很好地解决的一个问题是证据决策理论(美国东部时间),因果决策理论(CDT)是逻辑不确定性的问题-€”我们对数学和逻辑事实的不确定性,例如pi的第n个小数是什么。考虑永恒决策理论(TDT)的一种方式是,它是朝着能够处理逻辑不确定性的决策理论迈出的一步。

对于AI安全,其决策机制必须有所清晰,以稳定性和安全性地测试。这可能意味着需要与决策理论做出决策,而不是通过相对不透明的神经网络机制来做出决定。因此,我们需要首先解决决策理论的一些基本问题,逻辑不确定性是决策理论的剩余基本问题之一。

迈克尔:什么是反思决策理论,为什么有必要友好友好?

卢克:传统的决策理论不能处理能够修改自己源代码的代理,包括其决策机制的源代码。反思决策理论是一种能够处理如此强烈的自我修改主体的理论。因为一个先进的人工智能将有足够的智能来修改自己的源代码,我们需要开发一个反射决策理论,使我们能够确保人工智能在自我修改和自我完善过程中保持友好。

迈克尔:你能举个具体例子说明你的研究是如何解决Friendly AI中的一个或多个开放性问题的吗金宝博娱乐?

卢克:我才刚刚开始与机器智能研究所合作,在友好AI理论的开放问题上取得进展只是我所做的许多事情之一。金宝博娱乐我对友好内容理论的第一个贡献是总结神经经济学的一些最新进展与人类价值观的研究有关。我这么做是因为这个领域的其他研究人员还不熟悉这个材金宝博娱乐料,我认为友好内容理论的很多工作可以由广泛的研究人员合作完成,如果我们都了解情况的话。

这些来自神经经济学的结果似乎与友好内容理论相关,但只有时间才能告诉我们答案。例如,我们已经知道,人类行为的预期效用在大脑中是依次编码的(而不是依次编码的),从而避免了经济学中所谓的限制结果阿罗的不可能定理

迈克尔:为什么机器智能研究所还没有生产出任何具体的人工智能代码?金宝博娱乐

卢克:这是一个常见的混淆。在友好AI理论中,大多数开放问题都是关于数学和哲学,而不是计算机编程。有时程序员来找我们,提出要研究友好AI理论,我们回答:“€œ我们需要的是数学家。”你数学很好吗?”

事实证明,可以拯救世界的英雄不是那些具有令人难以置信的力量或飞行力量的英雄。他们是数学家。

第三节:少错与理性

迈克尔:你最初进入机器智能研究所€™的关注,是因为你很快获得了超过10,000个业力点金宝博娱乐更少的错误。对于那些不熟悉它的人,你能告诉我们什么是Less Wrong,以及它与机器智能研究所的关系吗?金宝博娱乐

卢克:Less Wrong是一个致力于研究理性的群体博客和社区:如何获得更真实的信念和做出更好的决定。机器智能研究所€™的联合创始人Eliezer Yu金宝博娱乐dkowsky最初为另一个博客写了数百篇关于理性的文章,克服偏见因为他想建立一个能够清晰思考像Friendly AI这样的难题的社区。这些文章随后被用作新网站Less Wrong的种子内容。我发现Less Wrong,是因为我对理性感兴趣,并最终开始为这个网站(€”)写文章,其中许多文章变得非常流行。

迈克尔:最初是什么让你对理性感兴趣?

卢克:我是一个热心的福音派基督徒,经历了一次戏剧性的信仰危机学到了一些关于历史上的耶稣、科学和哲学的东西。我曾如此自信地相信一件大错特错的事,这让我感到不安,我不再相信自己的直觉。我想避免再次犯这样的错误,所以我研究了允许人类大脑犯错的现象,比如确认偏见影响启发式。我也对正确思考的数学产生了兴趣贝叶斯更新决策理论

迈克尔:你最近夏天在伯克利的理性迷你夏令营担任讲师。你能告诉我们一些关于迷你营地的事情吗?人们在那里做了什么?你教了什么?

卢克:安娜我组织了一个小型夏令营,一个为期一周的夏令营,里面有关于理性、社会效益和存在风险的课程和活动。20多人住在伯克利的一所大房子里,我们在那里上课。他们中的一些人甚至来自遥远的瑞典和英国。

迷你营地非常棒,主要是因为那里的人太棒了!我们仍然在联系,仍然在学习和成长。

我们教的东西像如何使用概率论来更新我们的信念,如何使用可替代性原则来更好地实现我们的目标,以及如何使用肢体语言和时尚来改善我们生活中一些数学头有时忽略的部分!我们还上过课最优的慈善事业(如何让你的慈善资金得到最大的回报)以及存在风险(可能导致人类灭绝的风险)。

迈克尔:“少错”组织除了是一个网站外,还在世界各地聚会。如果我感兴趣,我可以去哪里参加这种聚会,聚会上会发生什么?

卢克:因为人类对环境有多敏感在美国,和那些正在学习理性并试图提升自己的人在一起是提升自己最有效的方法之一。

要想在你附近找到一个不那么错误的聚会,最简单的方法可能是查看最近的一次头版这篇文章将列出这周所有的“Less Wrong”聚会。

每次错误的会议都有不同的人和不同的活动。您可以联系Meetup组织器以获取最近的Meetup以获取更多信息。

迈克尔:最近发布的战略计划提到打算“€œ将理性培训提供给另一个组织,这样机器智能研究所就可以专注于友好人工智能的研究。”金宝博娱乐€你能给我们讲讲吗?

卢克:我们相信,建立一个由理性狂热者组成的庞大社区是我们使命成功的关键。较少错误的理性群体已经成为机器智能研究所不可或缺的人力和金融资本来源。金宝博娱乐然而,我们明白,作为一个专注于两个明显不同领域的组织是令人困惑的:高级人工智能和人类理性。这就是为什么我们正在努力建立一个致力于理性培训的新组织。届时,机器智能研究所(Machine Intell金宝博娱乐igence Research Institute)将更加专注于高级人工智能的安全性。

第四部分:机器智能研究所运作金宝博娱乐

迈克尔:你和路易·赫尔姆9月1日被雇佣。你们俩是怎么被雇来的?

卢克:机器智能研究所不会雇佣一些人,除非他们首先做了大量金宝博娱乐的志愿者工作。我最初是作为访问学者来到机器智能研究所的。金宝博娱乐在接下来的几个月里,我共同组织并在理性迷你夏令营授课,为更长的理性训练营授课,写了几十篇关于元伦理学和理性的文章,写了智能爆炸常见问题解答IntelligenceExplosion.com,领导撰写了组织的战略计划,并完成了许多较小的任务。

路易·赫尔姆在我之后不久也来到了伯克利。作为一个过去的访问学者,路易是建议我申请访问学者项目的人。路易为理性训练营(Rationality Boot Camp)做了一些教学工作,帮我写了战略计划,开发了一个捐赠者数据库,以便我们与捐赠者的联系更加一致,优化了机器智能研究所(Machine Intelligence Research Institute)的财务状况,做了很多筹款工作,还有很多其他工作。金宝博娱乐

在过去的几个月里,我们作为志愿者为组织创造了很多价值,所以董事会雇用了我们——€”我是研究员,路易是发展总监。金宝博娱乐

迈克尔:Louie Helm作为发展总监是什么?

卢克:我们€™是一个小团队,所以我们都做比我们的标题所说的更多,路易也不例外。路易负责筹集资金,与捐赠者沟通,申请资助等等。但他也发起了联合研究项目,协调金宝博娱乐志愿者网络,协助组织奇点峰会寻找潜在的新研究人员等等。金宝博娱乐

迈克尔:机器智能研究所刚刚从我们的夏季挑战基金中筹到了25金宝博娱乐万美元。这些资金将用于什么用途?

卢克:我们对夏季挑战授予的结果非常高兴。没有单身人士给予超过25,000美元,所以补助金成功,因为这么多不同的人给了。超过40人获得1000美元或以上,这向我们的核心支持者提供了高度的信任。

每年需要36.8万美元来支持我们这个由8名全职工作人员组成的精瘦家庭,其中4人是研究员:埃利泽·尤多科夫斯基、安娜·萨拉蒙、卡尔·舒尔曼和我。金宝博娱乐这笔钱还将用于运营2011年奇点峰会不过,我们预计今年该活动的现金收入将为正。我们计划重新设计singinst.org网站,使其更容易浏览,并提供更大的组织透明度。在峰会结束后,如果有足够的资金,我们希望雇用更多的研究人员。金宝博娱乐

迈克尔:卡尔·舒尔曼是在你和路易之前被雇佣的。他在组织中的角色是什么?

卢克:在被雇用之前,Carl也为机器智能研究所做了很多工作。金宝博娱乐他已经写了几篇论文并给出了一些谈判,其中许多你可以从我们的读物中读到金宝博娱乐 页面。他继续从事各种研究项目,并与Oxford’s的研究人员密切合作金宝博娱乐人文研究所的未来

迈克尔:机器智能研究所在寻找什么样的新研究金宝博娱乐人员?

卢克:数学家,主要是。如果你€™是一个聪明的数学学生,想在湾区生活和工作,你会被聪明,有影响力,利他的人包围,请应用在这里