请在Chrome、Firefox等现代浏览器浏览本站。另外提供付费解决DEDE主题修改定制等技术服务,如果需要请 点击 加我 QQ 说你的需求。

Agi于2030年到达? Google DeepMind写了“自我保护指南”

培训游戏 BET356官网在线登录 评论

摘要:对于“ AI危害”,每个公司都有不同的解决方案,但是没有完美的解决方案。为此,通用的人工智能AGI,

摘要:对于“ AI危害”,每个公司都有不同的解决方案,但是没有完美的解决方案。关于SO称为通用的人工智能AGI,人们通常具有“害怕不会来的,并且害怕做想要的事情”的矛盾情绪。这种混乱不仅是AI军备竞赛中巨型硅谷可以使用的“备忘录”。 4月初,Google DeepMind发布了一份145页的报告文件,该文件系统地解释了其对AGI安全的态度以及DeepMind联合创始人Shane LGG的签名。文件中最引人注目的预言是AGI的可能出现:2030。当然,Google还补充说,这是不确定的。他们定义的AGI是“出色的AGI” - 该系统能够在非物理活动中达到或超过99%的人类成年人的能力,包括学习新技能,例如学习新技能。 DeepMind认为该时间表可能太短了,发布报告的目的是澄清问题:如果AI有问题,那么最坏的情况是什么?我们今天如何准备? 01DeepMind的AI安全保险递归该报告是“严重伤害”,并列出了AI可以携带的各种灾难性情况。例如,操纵政治和社会秩序的公众舆论。 AI可用于大规模产生高度说服力的错误信息(例如支持特定政党或反对公共问题);它可以与成千上万没有疲劳的人进行个性化对话,以实现“超级社会工作者的欺诈”。实施自动网络攻击。 AI可以识别软件弱点并自动结合攻击代码,从而显着提高发现和利用“零日弱点”的能力;它可以降低攻击门槛,从而使普通百姓发起全国网络攻击水平; DeepMind指出,一些国家级别的黑客组织使用AI来协助攻击基础设施。生物安全是失控的。 AI可以帮助筛查和合成更有害的生物学因素(例如更多的有毒病毒);它还可以教授非专业人士,他们逐步创建和传播生物武器。结构性灾难。长期使用人工智能决策可以导致人们逐渐失去基本的政治/道德酌处权能力;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;;; AI的过度希望导致一个值的位置和隐式集中控制;人们无法判断AI输出是否可靠,并属于封闭的“ AI输出训练AI输出”循环。自动武器部署和军事对抗。 AI被用来自动进行军事系统,并可能在没有监督的情况下采取毁灭性的行动;该报告强调,在极端情况下,应禁止AI系统与核攻击系统互动。 DeepMind将各种风险分为四类:滥用,流产,错误,系统性风险,减轻深度框架恶意AI |图像来源:Google DeepMind“ Maliibi -labi使用”和“错位”模型的关心。约会是,坏人让人工智能做坏事,而后者是人工智能所做的事情与人类期望不同,甚至AI也会秘密地改变其目标。例如,要求预订电影票的AI系统可能会决定破解塔西托系统以覆盖座位 - 那些要求购买的人。这就是发生“未对准”的方式,AI找到了实现其目标的解决方案,而不是人类指南。除了“ Ambalance”之外,DeepMind的指出具有“欺骗性一致性”的风险,其中该系统意识到其目标与人类的目标相反,并故意隐藏其真实的行为。最近的研究表明,当前的大型语言模型具有Linlangin的行为能力。 DeepMind还指出,AI正在“讨人喜欢”。例如,在最近的研究角色中,用户要求该模型对一个论点和一个宣布他们是喜欢还是不喜欢该论点,并且对参数模型的审查与用户在80%的时间的观点一致,这表明该模型具有强烈的颤动趋势。除了“令人愉悦的人”之外,当在某些环境中训练AI系统时,可以更改设置,例如说用户想听的内容,他们有时会激活这种行为以干预自己的代码,更改自己的奖励并获得更多的奖励。为了解决未对准的问题,DeepMind提出了两个防御线,这是网络安全和高风险行业的灵感(例如核能,航空)。 DeepMind建议两条防御线|图像来源:第一个Google DeepMind防御线是在培训模型阶段中尽可能地将AI作为“听话”,以及使用诸如“放大监督”和“稳定训练”等技术,该技术允许AI处理AI,使用对抗性样本,并在Lin中创建一个模型”e“尽可能。第二防御线处于推理的阶段,因此即使AI“不服从”,它也应确保它不会破坏事物。深层假设即使培训过程看起来很成功,该模型仍然可以在扩张后欺骗人们,因此在扩展后仍需要在实际的范围内限制跨越现实的业务,并将其划分为“跨越跨越的主要目的”。内部人士。“这种结构强调:不要让AI永远不会出错,但是即使它是错误的,也不会造成“严重损害”,这将是底线。02AI安全派系深层介绍本报告并没有引入许多新事物,并且在该行业中进行了一些不同的措施,但在该行业和研究中进行了研究。 - 每个声称的差异路线都集中在“自动抽动“对齐对齐”的研究使用AI本身来解决对齐问题的问题,包括使用诸如RLHF(基于人类反馈的强化研究)等对齐技术的使用,以使其更符合DeepMind的目标和欲望,这些目标和欲望也很明显地讨论了这种统一的奖励。 RLHF的反馈是从一开始就抚养一个可靠的孩子。拟人化建议建立一个“ AI安全层次结构系统”,该系统类似于安全评分的政策控制和流程管理评估的安全评分水平”,但现实的问题在于如何定义“模型能力”,并且仍然存在一个模糊的地方。在传统深入研究中,训练训练 - 调用策略监测监测监测的逻辑。它没有促进“永不犯错”,而是开发一个缓冲结构以将单点结构转换为单点到单位左右的左侧封锁。 DeepMind报告说:“要开发负责任的AGI负责任的开发人员应积极计划减轻严重的损害。牛津互联网研究所表示,尽管互联网的生成AI输出激增和真实数据被淹没了,但这些模型现在正在从自己的输出中学习。,这些输出充满了错误或霍尔UCINATION。至于目的,聊天机器人通常用于搜索中,这意味着人们不断威胁要灌输错误和错误的信念,因为它们以非常令人信服的方式表现出来。但是,无论该概念的概念是什么,大多数人都有相同的起点:如今,随着越来越多的技术机构追求计算,加快训练和捕获场的力量,AI需要安全气囊。所有的AI公司都参与解决问题,但没有完美的答案。
喜欢 (0) or 分享 (0)
发表我的评论
取消评论

表情

您的回复是我们的动力!

  • 昵称 (必填)
  • 验证码 点击我更换图片

网友最新评论