2023.05.18
正如希腊哲学家赫拉克利特曾经说过的那样,生命中唯一不变的就是变化。今天,世界正在经历前所未有的蜕变,这一切都要归功于被称为 “人工智能” 或简称为 AI 的技术。
麦肯锡的研究表明,2017-2022 年间,全球各组织对人工智能的采用增加了一倍多。那么,是什么让这项技术如此迷人并与众不同呢?
什么是人工智能?
顾名思义,人工智能涉及将人类智能转移到 “人工” 实体上,使其能够以与人类相同的方式发挥作用。
该学科的首批创始人之一约翰·麦卡锡 (John McCarthy) 将人工智能定义为 “制造智能机器,特别是智能计算机程序的科学和工程。它与使用计算机理解人类智能的类似任务有关,但人工智能不必局限于生物可观察的方法。”
然而,在这一定义出现的几十年前,英国数学家艾伦·图灵的开创性著作《计算机械与智能》(Computing Machinery and intelligence)于 1950 年出版,讨论了人工智能对话的诞生。在这篇论文中,被许多人称为 “计算机科学之父” 的图灵提出了以下问题:“机器能思考吗?”
在那里,他提供了一种现在著名的测试,即 “图灵测试”。在这种测试中,人类审问者会试图区分计算机和人类的文本响应。本文的整个部分都致力于他所说的 “模仿游戏”,这后来也成为了一部关于图灵生平的传记电影(2014年)的标题。
尽管 “图灵测试” 自出版以来经历了很多审查,但它仍然是人工智能历史的重要组成部分,也是哲学中一个持续存在的概念,因为它利用了语言学的思想。
Stuart Russell 和 Peter Norvig 是现代人工智能研究的两位主要贡献者。他们共同出版了最终成为世界上最受欢迎的人工智能教科书。在书中,他们深入研究了人工智能的四个潜在目标/定义,它根据理性和思考与行动来区分计算机系统:1)像人类一样思考的系统;2) 行为像人类的系统;3) 理性思考的系统;以及 4)行为合理的系统。艾伦·图灵的定义属于第二类。
以下是 IBM 提供的人工智能的定义,该公司开发了自己的基于人工智能的问答计算机系统,最终在美国游戏节目《危险边缘》中赢得了100万美元的奖金。
从最简单的形式来看,人工智能是一个结合了计算机科学和强大数据集的领域,可以解决问题。它还包括机器学习和深度学习的子领域,这两个领域经常与人工智能一起被提及。这些学科由人工智能算法组成,这些算法试图创建基于输入数据进行预测或分类的专家系统。
更简单地说,人工智能本质上是对机器中人类智能的模拟或近似,正如 Investopedia 所描述的那样。
超越于机器人
当大多数人第一次听到人工智能这个词时,他们通常首先想到的是机器人。这主要是大成本电影和流行文化的副产品;人工智能不仅仅是机器人。
如今,几乎任何能够模仿人类认知活动的东西都可以被视为人工智能。这可以是一些非常小而无形的东西,比如智能手机上的应用程序(它本身也是人工智能驱动的,比如 iPhone 的 Siri),或者我们已经使用的工具/机器(即自动驾驶汽车)的升级。
事实上,我们不可能列出每一个例子,因为人工智能可能的应用是无穷无尽的。这项技术已经在许多不同的部门和行业中使用,从医疗保健、科学到零售和银行,因为它们可以完全精确地执行这些领域中最复杂的任务。
即使是最简单的任务,我们也开始依赖人工智能。
还记得上一次使用实物地图来指导我们旅行是什么时候?使用人工智能技术的谷歌地图为我们覆盖了地球的每一个角落。有关于你的互联网账单的问题吗?聊天机器人可以在几分钟内为您解决这个问题。然后是社交媒体,我们看到的一切都被人工智能推送给我们,以满足我们的食欲。
在我写这篇文章的时候,人工智能可以 “在我身边” 纠正任何语法错误和拼写错误;不知不觉,我们日常生活的方方面面都与人工智能有关,并高度依赖人工智能。
生成人工智能时代
但即使多年来在执行日常任务时尝到了人工智能的好处,我们仍然倾向于将人工智能视为未来的一种技术,一种有改进空间的技术。毕竟,对机器的期望与对我们自己的期望是截然不同的。
虽然这种思路没有错,但这并不意味着人工智能的接管目前没有发生。
在 ChatGPT 出现后,我们才刚刚开始意识到这一点。ChatGPT 是当今著名的聊天机器人,旨在模仿人类健谈者,为用户提出的抽象而复杂的问题提供答案。
ChatGPT 是 “聊天生成预训练变压器” 的缩写,它可以帮助我们撰写商业演讲、创作音乐、电视剧、童话和学生作文、回答测试问题、写诗和作词等等。至关重要的是,它展示了惊人的能力,能够像每个行业的专业人士一样出色地完成每一项任务。
更重要的是,ChatGPT 模型只需要大约一个月的时间就可以学习一些可能需要数年时间的东西,而且对于每一个请求,聊天机器人都可以在几秒钟内提供响应。大多数时候(根据 Tooltester 的最新统计数据,53%),我们甚至无法判断内容是由人工智能还是真人生成的。
现在每个人都在谈论 ChatGPT,越来越多的人在使用它。事实上,它是有史以来增长最快的应用程序,在 2022 年底推出仅两个月后就增加了 1 亿月活跃用户。相比之下,网飞用了 3.5 年时间才达到 100 万用户。
ChatGPT 的迅速崛起被认为是人工智能的分水岭;它告诉我们,我们正在进入一个人工智能技术发展的新时代,一个专注于通用而非特定任务模型的时代。
IBM 对由 ChatGPT 领导的新一轮人工智能浪潮所做出了以下评论:“上一次生成型人工智能如此庞大,突破是在计算机视觉方面,但现在的飞跃是在自然语言处理方面。
“这不仅仅是语言:生成模型还可以学习软件代码、分子、自然图像和各种其他数据类型的语法。”
正如 IBM 所说的,生成人工智能指的是一种名为 “深度学习” 的算法,它可以获取原始数据,比如维基百科的所有数据或伦勃朗收集的作品,并在提示时 “学习” 生成统计上可能的输出。在高水平上,生成模型对其训练数据的简化表示进行编码,并从中提取数据,以创建与原始数据相似但不相同的新工作。
尽管生成模型多年来一直被用于统计学分析数字数据,但深度学习的兴起现在使其能够扩展到图像、语音和其他复杂的数据类型。
在新时代,像 ChatGPT 这样的生成性人工智能工具基本上可以扮演我们喜欢的任何角色,无论是行政助理、客户服务代表、数据编码大师,甚至是食品配方生成器。
在不远的将来,我可以打赌会有更多类似于 ChatGPT 的技术诞生,来扰乱广泛的行业。
从 “弱” 到 “强” 人工智能
由 ChatGPT 领导的生成人工智能模型属于 “弱人工智能” 类别,也称为 “窄人工智能” 或 “人工窄智能“(ANI)。弱人工智能的概念围绕着一个旨在执行特定工作的系统展开,这也是我们今天看到或使用的大多数人工智能技术的驱动力。
对于这类人工智能来说,“窄” 可能是一个更准确的描述词,因为它一点也不弱;它支持一些非常强大的应用程序,如苹果的 Siri、亚马逊的 Alexa、IBM Watson 和自动驾驶汽车。
另一个类别是 “强大的人工智能”;这是一个更复杂的系统,可以执行被认为是类人的任务。它包括两种形式的人工智能:人工通用智能(AGI)和人工超级智能(ASI)。
AGI,或通用人工智能,是人工智能的一种理论形式,机器的智能与人类相当;它将具有自我意识,有能力解决问题、学习和规划未来。人工超级智能(ASI)——也被称为超级智能——将超越人类大脑的智能和能力(稍后将对此进行详细介绍)。
虽然强人工智能仍然完全是理论上的,今天没有实际的例子,但这并不意味着人工智能研究人员也没有探索它的发展。与此同时,ASI 最好的例子可能来自科幻小说,比如《2001:太空漫游》中的超人流氓计算机助理 HAL。
有了这一点,人工智能的未来发展最终可能会模糊我们的世界和我们只能在奇幻电影中看到的世界之间的界限。对于那些将人工智能与机器人联系在一起的人来说,他们将在一定程度上得到验证,只是真正的 “机器人” 可能比想象中的更强大。
“双刃剑”
尽管社会将在很大程度上依赖人工智能的力量向前发展,但我们也不能忽视这样一个事实,即这项新兴技术带来了巨大的风险。
人工智能从一开始就受到科学家和公众的密切关注。一个共同的主题是,机器将变得如此高度发达,以至于人类将无法跟上,它们将独自起飞,以指数级的速度重新设计自己,并最终征服世界(还记得阿诺德·施瓦辛格和《终结者》?)。
在最近接受《财富》杂志采访时,ChatGPT 背后的旧金山初创公司 OpenAI 的前安全研究员表示,该技术将接管世界的可能性至少为百分之十到二十,届时将有许多或大多数 “人类死亡”。他并不是唯一这么说的人:最近的一项调查显示,一半的人工智能研究人员认为人类灭绝的可能性至少为百分之十。
另一个令人担忧的问题是,机器可能会侵入人们的隐私,甚至被武器化。其他争论争论使用人工智能的伦理问题,以及机器人等智能系统是否应该与人类享有同等权利。
自动驾驶汽车也一直备受争议,因为它们的机器往往是为尽可能低的风险和最少的伤亡而设计的。如果出现同时与一个人或另一个人相撞的场景,这些汽车将计算出造成最小损失的选项。
多年来,一个有争议的大问题是人工智能将如何影响人类就业。随着许多行业希望通过使用智能机械来实现某些工作的自动化,人们担心人们会被挤出劳动力市场。例如,自动驾驶汽车可能会消除对出租车和汽车共享计划的需求,而制造商可能很容易用机器取代人力,使人们的技能过时。
更可怕的是,我们甚至还没有完全计算出人工智能不必要后果的全部程度,因为我们还没有经历过。
从理论上讲,人工智能对社会构成的危险可能与其能力一样无限;人类生命的损失,如果人工智能医疗算法出错,或者国家安全的妥协,如果对手向军事人工智能系统提供虚假信息,这些都是我们无法排除的可能性。
这种更大的生存威胁在于强大人工智能的发展,末日论者称之为下一颗 “小行星”,就如大约 6600 万年前恐龙灭绝时那样。许多公司已经在努力构建 AGI,实现这一目标所需的时间可能比人们预期的要短。
被称为 “人工智能教父” 的杰夫·辛顿 (Geoffrey Hinton) 此前告诉哥伦比亚广播公司:“直到最近,我还以为我们需要 20 到 50 年才能拥有通用人工智能。现在我认为可能需要 20 年或更短的时间,甚至 5 年都有可能”。
从 AGI 到下一阶段超级智能的时间可能不会很长;根据一个声誉良好的预测市场,这可能需要不到一年的时间。《时代》杂志写道,超级智能并不是一个 “长期” 问题:它甚至比气候变化和大多数人的退休计划更为短期。
尽管如此,没有人能确定这颗象征性的 “小行星” 何时真正到来,以及我们是否可以通过人工智能的好处和风险来避免灾难;这在很大程度上取决于它是如何使用的,它被用来做什么,谁在使用它。
就目前而言,至少我们中的许多人都意识到,人工智能是一把 “双刃剑”,它可能会成就我们,也可能会毁掉我们。
暂停的必要
在 3 月下旬,1000 多名在人工智能领域和周围工作的技术领导者、研究人员和其他专家签署了一封公开信,警告称该技术 “对社会和人类构成了巨大风险”。
该组织包括特斯拉首席执行官埃隆·马斯克、之前提到的杰弗里·辛顿、和另外两位人工智能 “教父” Yoshua Bengio 和 Yann LeCun,敦促实验室停止开发其最强大的系统六个月,以便更好地了解这项技术背后的危险。
辛顿在谷歌工作了十年,但最近他因对自己帮助开发的技术感到懊悔而离职。现在他正积极表达对其对人类危险的担忧。
该信中说:“只有当我们确信它们的效果是积极的,风险是可控的时,才能开发出强大的人工智能系统。”。
虽然这封信很简短,但它代表了人工智能专家越来越担心的一点,即最新的系统,尤其是由微软支持的 OpenAI 引入的 GPT-4 技术,可能会对社会造成伤害,未来的系统可能会更加危险。
在蒙特利尔大学任职的 Bengio 说:“我们理解非常强大的人工智能系统可能出问题的能力非常弱。所以我们需要非常小心。”
随着它们变得越来越强大,我们需要评估将要引入的风险,根据我们所谈论的未来,风险可以采取各种形式。
在短期内,人工智能专家担心人们将依赖这些系统来获得医疗建议、情感支持和他们用来做出决策的原始信息。他们还担心人们会滥用这些系统来传播虚假信息。专家说,因为他们可以用类似人类的方式交谈,所以他们的说服力惊人。
同月,世界卫生组织呼吁在公共医疗保健中谨慎使用人工智能,称用于训练人工智能的数据可能存在偏见,并产生误导或不准确的信息,这些模型可能被滥用以产生虚假信息。
从中期来看,专家们担心新的人工智能系统可能会成为工作杀手。目前,像 GPT-4 这样的技术往往是对人类工作者的补充,但 OpenAI 已经承认,它们可以取代一些工作者。OpenAI 研究人员撰写的一篇论文估计,百分之八十的美国劳动力至少有百分之十的工作任务会受到语言学习模型的影响。
从长远来看,专家们担心失去对人工智能系统的控制。回到 “小行星” 的主题,一些签署这封信的人认为人工智能可能会超出我们的控制范围或摧毁人类,尽管大多数人说这太夸张了。
总结
然而,我们不能做的一件事是睁一只眼闭一只眼,就像我们多年来对气候变化所做的那样;我们中仍有相当一部分人否认 “厄运和悲观” 的情况。
我们更不能在现实生活中重演2021年网飞黑色喜剧电影《别抬头》,这部上映只是为了嘲笑我们在面临生存威胁时的无知的影片。
现在,科技公司有责任确保人工智能产品对公众的安全,政策制定者有责任确保有监管来确保安全。这是美国总统乔·拜登在本周与科技顾问会面前采取的立场,他表示 “人工智能是否危险还有待观察,但强调科技公司有责任确保其产品在公开之前的安全。”
白宫已经召集了包括 OpenAI 的 Sam Altman 在内的顶级技术首席执行官来解决人工智能问题。美国立法者也在寻求采取行动,在限制其滥用的同时,进一步提高该技术的效益和国家安全。
周二,Altman 首次在国会发表讲话,公开承认他的公司的生成人工智能需要政府监管,因为它干预选举的能力可以被视为 “一个值得关注的重要领域”。
讨论的中心是一张人工智能生成的前总统唐纳·特朗普被纽约警察局逮捕的照片,该照片在网上疯传,议员们认为这是一个可能损害 2024 年大选完整性的错误信息案例。
Altman 建议,总的来说,美国应该考虑人工智能模型开发的许可和测试要求。当被要求就哪些人工智能应该获得许可发表意见时,他说,一个能够说服或操纵一个人信仰的模型将是 “巨大门槛” 的一个例子
IBM 首席隐私和信任官克里斯蒂娜·蒙哥马利 (Christina Montgomery) 此前曾敦促国会将监管重点放在可能造成最大社会危害的领域。
但就目前而言,没有人能确切地说出这些伤害到底是什么,以及它们何时会降临到我们身上。
法规是否真的有助于降低这些风险?历史证据表明没有,因为违反规则(委婉地说是 “发挥创造力”)是这个行业的本质。一位人工智能研究人员告诉《时代》杂志,“人工智能的力量增长速度超过了调整人工智能的法规、战略和专业知识。我们需要更多的时间。”
可以肯定的是,在人工智能技术允许的范围内,世界的变化速度是最快的。在最好的情况下,过多的变化可能导致变革,在最坏的情况下可能导致破坏。
Richard (Rick) Mills
aheadoftheherd.com
点击订阅
法律声明/免责声明 – Ahead of the Herd (以下简称 AOTH)
在使用本网站或阅读通讯之前,请仔细阅读整个免责声明。
如果您不同意所有的AOTH/Richard Mills的免责声明,请谢绝访问/阅读本网站/新闻通讯/文章或其任何页面。通过阅读或使用AOTH/Richard Mills网站/新闻/文章,无论您是否实际阅读此免责声明,均被视为已接受。
任何属于AOTH/Richard Mills的文章与资料都不应被视为出售邀约, 或征求购买或认购任何投资的邀约。
AOTH/Richard Mills的文章资料都基于从他所认为的可靠的信息来源,却尚未经过独立验证。 AOTH/Richard Mills不作任何保证,陈述或担保,并且对其准确性或完整性不承担任何责任。
文中所表达的意见仅属于AOTH/Richard Mills个人。如有更改,恕不通知。
对于本文中提供的任何信息的当下相关性,正确性或完整性,AOTH/Richard Mills不承担任何保证,责任或担保,并且对于依靠本文中包含的任何意见或陈述或任何遗漏而导致的后果不承担任何责任。
此外,对于因使用AOTH/Richard Mills提供的信息而可能造成的任何直接或间接损失或利润损失,AOTH/Richard Mills不承担任何责任。
您同意通过阅读AOTH/Richard Mills的文章,您将承担风险。 AOTH/Richard Mills在任何情况下均不对AOTH/Richard Mills文章中包含的任何信息造成的任何直接或间接交易损失承担责任。
AOTH/Richard Mills文章中的信息不是出售邀约,也不是购买任何证券的邀约。AOTH/Richard Mills不提供任何金融凭证的交易的建议。
我们的出版内容不用于建议您购买或出售证券 — 本网站上所发布的任何信息均不应被视为投资建议,任何关于您财务或金钱事宜请咨询您个人的注册经纪人/财务顾问。
AOTH/Richard Mills建议您在投资任何证券之前,请先咨询专业的财务规划师或顾问,并且在谨慎考虑所有相关风险之后,应在投资任何证券之前进行完整且独立的调查。
AOTH非注册经纪人,交易商,分析师或顾问。AOTH不持有投资许可证,也不会出售,邀约出售或邀约购买任何证券。