跳至正文

理解人工智能——以及我们为什么害怕它

理解人工智能——以及我们为什么害怕它

不管我们承认与否,我们都非常热衷于尝试创造可以自己思考的机器——充满人工智能的机器,简称 AI。事实上,它通常是我们观看的电影和电视节目的灵感来源:2001:太空漫游、斯皮尔伯格的人工智能、终结者系列、她、机械姬、我、机器人、生活大爆炸等

最近,人工智能再次掀起波澜,尽管它属于不祥之兆。研究人员正在取得大量突破。世界上最强大的政府和军​​队都在大力投资它,它已经变得如此有形,以至于世界上最聪明的头脑发现自己对此存在分歧。

虽然比尔盖茨、斯蒂芬霍金和埃隆马斯克等人对人工智能持谨慎态度,但雅虎!首席执行官 Marissa Meyer、谷歌的研究人员以及广大公众都对这个想法感到非常兴奋。我们来看看喧闹是怎么一回事。

智能设备与人工智能

任何智能设备都可以通过合适的应用程序变得“更智能”(就像您在此处看到的那样)。例如,您可以使用合适的应用程序和/或附带的小工具,将您的智能手机变成汽车、家的钥匙,甚至是传感器。然而,这些根本算不上“智能”——它们只是一组依赖于人类输入(指令)以产生输出的指令。

“人工智能”是斯坦福大学的约翰·麦卡锡 (John McCarthy) 在 1956 年的一次会议上创造的。人工智能涉及开发能够独立“思考”的计算机——能够智能地行动并执行通常由人类完成的功能的计算机。但更重要的是,人工智能是一种自我学习的技术。

2014 年 8 月,关于一种像蹒跚学步的孩子一样学习的人工智能的新闻报道在科技新闻界广为流传。它可以实时学习,可以模仿人的面部表情。它也“看起来”像一个蹒跚学步的孩子——我不确定这是否会让它变得不那么令人毛骨悚然。

图片:奥克兰生物工程研究所动画技术实验室

人工智能领域的发展

当今市场上有各种各样的应用程序,它们充分利用了我们迄今为止能够通过 AI 完成的工作——从寻路应用程序到个人助理

Cortana,微软对 Siri 的回应,利用其对语音和语言的研究,允许该应用程序参与与用户在手机上的来回交流。IBM 拥有Watson,这是一个强大的智能系统,因击败 Jeopardy 而流行起来!2011年冠军。

谷歌也在努力“开发具有逻辑、自然对话甚至调情能力的算法”。这些算法被称为“思维向量”,据称旨在实现与人类相当的推理和逻辑水平——如果你愿意的话,也就是具有常识的人工智能。

然后是艾米丽豪厄尔。“她”是一个擅长作曲和引发争议的人工智能。人工智能可以有自己的音乐风格吗?根据培养她的教授大卫·科普 (David Cope) 的说法,显然,艾米丽可以而且确实如此。

电梦是由什么构成的

在谷歌最近公开的一项研究中,人工神经网络可以做梦,尽管它们不会梦到电子羊。好吧,在这种情况下,“梦”的使用非常自由,因为 AI 根本不睡觉。但它的工作原理大致相同。

图片:谷歌研究博客

上面的图像是由谷歌的人工神经网络生成的。基本上,研究人员将图像加载到网络中,以训练它区分一张图像和另一张图像。在此过程中,它会生成事物应该是什么样子或至少它认为它们应该是什么样子的图像。谈论盗梦空间

人工智能的实际应用

显然,大量的工作正在投入到人工智能中,因为它为社会提供了许多无价的好处。

  • AI 确保精度和准确性,消除可能由人为错误引起的问题。
  • 人工智能可用于采矿、海洋探索,甚至是人类可能无法尝试的危险太空任务。
  • 人工智能可以比人类更有效地处理重复性、耗时的工作,而无需停下来休息。
  • 因为人工智能是根据逻辑而不是情感来运作的,所以人们可以指望它总是做出合乎逻辑、不带感情的决定。
  • 人工智能是一种有效的教育/培训工具,尤其适用于高度专业化的职业,例如医生和飞行员。
  • 人工智能还可以用于加速不同领域的研究,特别是那些需要复杂计算的领域。

主流媒体中的人工智能

科幻作家和电影制作人已经分享了他们对未来人工智能的看法。

在电视上,AI 为许多不祥的讨论打开了舞台,例如,Person of Interest思考人类构建最终可以超越它并监控它所做的一切的 AI 的可能性,Battlestar Galactica将 AI 的概念融入社会并探索主题,而Caprica处理人工智能、虚拟现实 (VR) 和机器人概念的组合。

在电影《复仇者联盟》、 《超越》、《我,机器人》、 《黑客帝国》以及《光晕》《质量效应》等游戏中,人工智能在社会中发挥着重要作用想一想,与计算机控制的对手竞争的想法不就是在现实环境中应用 AI 的一种方式吗?

图片:环球影业国际

那么,为什么要害怕 AI?

要回答这个问题,我们需要回到书本上。艾萨克·阿西莫夫 (Isaac Asimov)是科幻小说中最多产的人物,他撰写了机器人三定律,其中指出:

  • 机器人不得伤害人类,或因不作为而让人类受到伤害。
  • 机器人必须服从人类给它的命令,除非这些命令与第一定律相冲突。
  • 只要不违反第一或第二定律,机器人就必须保护自己的存在

当然,就像世界上的其他事物一样,没有人真正注意应用这些规则。这让即使是最聪明的人也对人工智能的未来感到担忧。

图片:20 世纪福克斯

史蒂芬霍金曾说过一句名言:“人工智能的全面发展可能预示着人类的终结。” 虽然不可能说他是对还是错,但他并不孤单。埃隆马斯克认为,创造比人类更聪明的人工智能会使我们处于严重的劣势,并可能导致巨大的社会灾难用他的话说:“我们在召唤恶魔。”

但他们害怕的不仅仅是简单的人工智能。他们专门谈论超级智能,一种在各方面都超越人类的智能。

牛津大学人类未来研究所的尼克·博斯特罗姆 (Nick Bostrom) 在他的《超级智能:路径、危险、策略》一书中对此做了最好的总结。

“我们不能轻率地假设超级智能必然具有与人类智慧和智力发展相关的任何最终价值观——科学好奇心、对他人的仁慈关怀、精神启蒙和沉思、放弃物质占有欲、对高雅文化的品味或为了生活中简单的快乐、谦逊和无私等等。”

不管是好是坏

只有时间才能证明 AI 在发挥其全部潜力后是否会继续为人类服务并与人类合作,以建设一个更美好的世界想象一个世界,那里不再存在饥饿,以前无法治愈的疾病可以治愈,以前复杂的问题可以在眨眼之间解决。

这一切都取决于人类试图在自己的高科技小操场上扮演上帝的行为所产生的影响。让我们只希望我们最终会得到一个Wall-E而不是Ultron

标签: