2016年7月通讯 2016年7月5日|罗伯格林格|新闻稿 金宝博娱乐研究更新 一篇新论文:“对真理问题的正式解决方案。“本文在UAI-16呈现,并描述了对预期实用性最大化的游戏理论推理的第一次将军减少。 Miri最近结束的参与者坚固且有益的AI上的Colloquium系列(CSRBAI)已经放了AI安全环境对于Openai强化学习健身房。1欢迎帮助创造更多的安全环境并在当前设置进行实验。问题可以被定向到Rafael.cosman@gmail.com.。 一般更新 我们参加了白宫AI安全与控制的研讨会。 我们的2016年Miri夏天研究员计划最近画得很近。该计划由应用合理中心经营,旨在培养AI科学家和数学家的研究和决策技能。金宝博娱乐 “为什么不是你富有?“:Nate Soares讨论了决策理论黎明或厄运。看 ”走向理想化决策理论“对于上下文。 数字,一种用于机器学习研究人员的匿名分布式对冲基金,金宝博娱乐已添加一个选项为了在AI领域捐赠给Miri的收入“作为对冲恐怖对手的对冲”。 新闻和链接 白宫是请求信息关于“AI的安全与控制问题”,以及其他问题。公开提交将于7月22日接受。 “AI安全的具体问题“:来金宝博娱乐自Google Brain,Openai和Academia的研究人员提出了一个非常有前途的新AI安全研究议程。提案展示了谷歌研究博客金宝博娱乐和Openai博客以及开放慈善博客,并已收到新闻覆盖范围彭博那边缘, 和麻省理工学院技术评论。 批评Openai背后的思考后早些时候,字母表执行主席Eric Schmidt赞成AI安全研究金宝博娱乐: 我们担心世界末日情景吗?我们认为这是值得深思熟虑的考虑因素。今天的AI只茁壮成长,在许多例子上训练的狭窄,重复的任务。但没有研究人员金宝博娱乐或技术学家希望成为一些好莱坞科学小说副肢体的一部分。正确的课程不是恐慌 - 它要上班。除了许多其他公司之外,谷歌正在进行对AI安全的严格研究,例如如何确保人们可以金宝博娱乐中断AI系统金宝博官方无论如何,以及如何使这些系统对Cyberattacks的强大。金宝博官方 Dylan Hadfield-Mennell,ANCA Dragan,Pieter Bebeel和Stuart Russell提出了一个正式的定义价值对齐问题“合作逆钢筋学习,“一个双人游戏,人类和机器人都是”奖励的奖励,但机器人最初没有知道这是什么。“在一个csrbai谈话中(幻灯片),Hadfield-Mennell讨论了AI易燃的应用。 贾安塔林带来他的AI风险焦点到了原子科学家公报。 斯蒂芬霍金对情报爆炸的重量(视频)。山姆哈里斯和尼尔斯顿泰森辩论这个想法更长(音频,1:22:37)。 Ethereum Developer Vitalik Buterin讨论了这一影响价值复杂性和脆弱性和其他AI安全概念用于密码经济。 有线涵盖一个“妖魔聪明“基于芯片的模拟属性的后门。 CNET.采访Miri和谁是AI科学家的一对文章:“艾,弗兰肯斯坦?专家说,不是那么快“ 和 ”当好莱坞和艾,这很有趣但是比。“ 下个月有效的利他主义全球会议正在接受申请人。 这些健身房的灵感来自于与Rafael的谈话中的Chris Olah和Dario Amodei。↩