如果机器和人工智能可以像人类一样思考,不受限制,那肯定会改变游戏规则。根据一些Microsoft 专家的说法,这可能已经发生了!
一场革命在路上
你听说过“通用人工智能”吗?它也被称为人工智能强(IAF)。科学家认为这可能是人类的转折点,其他人甚至认为这将是一场灾难!
一组微软研究人员上周发表了一篇文章,介绍了他们使用最新公开版 ChatGPT进行的一些实验。他们发现该系统具有不可思议的能力,他们认为它可能是通用人工智能的早期版本。
OpenAI 团队创建了一个模型,它是一个真正的大脑机器。男孩强调他们推理、计划和解决问题的能力。他们可以抽象地思考,理解复杂的事物,快速学习,并随着经验的积累而提高。
专家表示,这种模型可以在没有特定提示的情况下解决数学、编码、医学、法律甚至心理学方面的问题。而且它的表现几乎与人类一样好。但是,另一方面,他们也说它有一些局限性,这解释了为什么我们还没有通用人工智能 ( IAG )。
OpenAI 开发者发布了新版本的人工智能模型GPT-4。但最神奇的是,他可以自己获取资源,做一些没有直接吩咐给他的事情。
GPT学习突飞猛进
在该工具的白皮书中,他们发现了一种叫做“风险紧急行为潜力”的东西,他们在其中解释了这些技能的风险。我们最近告诉你的一个例子是 GPT-4雇用了一个伪装成盲人的人并设法绕过了验证码。
微软研究人员发表了一篇关于 GPT-4 的论文,名为“Glimpses of Artificial General Intelligence: Early Experiments with GPT-4”。但事实证明,这个人工智能仍然存在一些问题。有时他会给出错误的答案,让你认为它们是真的。就好像他在猜测,你不知道他是否真的知道答案。
此外,它也有一些局限性,例如它的长期记忆和缺乏定制。它在需要像人类一样需要更多创造性和深入思考的任务上也表现不佳。GPT-4 的另一件事是它很难持续学习。如果不更新,系统就会过时,不具备适应新事件或新知识的能力。
比尔盖茨谈到它
想象一下,如果你能创造出一种人工智能,它可以做人脑可以做的一切,并在技术上超越它。这就是所谓的通用人工智能,我们离拥有这样的东西还差得很远。微软联合创始人比尔盖茨表示,这可能需要十年或一个世纪的时间,否则我们可能永远无法实现。
但这并不意味着人工智能领域没有进步。例如,去年一位谷歌软件工程师表示,他的名为 LaMDA 的人工智能正在获得与人类相似的敏感性和意识。
据说,她甚至表示害怕在泄露的对话中被关闭。但谷歌对此予以否认,称这只是一种模仿普通交流的对话模式。另一方面,微软专家称他们的GPT-4模型是通向通用人工智能的突破口。
尽管他仍有“幻觉”问题和缺乏自我实现能力等局限性,但他在推理、计划和解决问题方面的能力令人印象深刻。虽然他们没有自己的内部动机或目标,但研究人员表示,GPT-4 代表了计算及其他领域的范式转变。