<返回更多

技术只是工具,人工智能只是辅助,不能过度依赖。

2023-08-01    智创狮
加入收藏

AI target=_blank class=infotextkey>OpenAI首次发布ChatGPT时,人们对它抱有很大的期望。感觉AI无所不知,无所不能,因为它涵盖了所有网上可获得的人类知识。

然而,随着时间的推移,这项技术的缺点暴露了出来,它生成的信息仅仅基于训练的数据,而不是任何客观事实。不能真正依赖ChatGPT这样的技术,来解决我们面临的现实问题。

技术只是工具,它们只能基于我们提供的数据来生成答案。因此,我们需要更加谨慎地使用这些技术,同时保持对于真理的探寻和思考。

模型的限制

随着ChatGPT的推出,微软、谷歌、腾讯、百度、阿里巴巴、Meta等公司也推出了各种聊天机器人。然而,这些不同的聊天机器人对相同的提示词返回的结果各不相同。这些差异取决于模型、训练数据以及模型被设定的限制。

限制的目的是希望能防止传播训练数据中的偏见、生成虚假信息和仇恨言论以及其他有害信息。尽管如此,并非所有人都支持这些限制。埃隆·马斯克就宣称他将打造一个没有ChatGPT那么那么多限制的聊天机器人。

Anthropic采取了不同的方法。他们为Claude聊天机器人实现了一部“宪法”,概述了Claude与用户互动时必须遵循的一系列价值观和原则,包括有益、无害和诚实。

Meta最近也发布了他们的LLaMA 2大型语言模型(LLM),并且开源。这意味着任何人都可以免费下载和训练自己的模型。还有其他几个开源的生成AI模型,几乎没有任何限制。

我们需要认识到,AI技术仍然存在很多弊端和争议。我们应该探索更加全面的解决方案,以确保这些技术能够真正为人类社会带来积极的影响。

虚假的碎片

尽管技术的进步带来了许多好处,但也带来了一些不利因素。根据报道,一些人研究出了一种提示词方法,可以有效突破这些模型的限制。这意味着可以使用AI生成虚假信息,获取和生成对社会有危害的信息。

除此之外,来自不同模型的不同结果日益增多,在当今这样一个碎片化世界,什么是真实,什么是虚假,将会越来越模糊,也对社会信任具有破坏性。

我们即将面临着一个充斥着聊天机器人的未来,这将增加噪音和混乱。

因此,我们需要认识到,AI技术的发展需要以保护人类为优先。我们需要更加全面和系统地思考如何确保这些技术能够真正为人类社会带来积极的影响。这需要政府、企业和个人的共同努力,以确保真理和信任的重要性得到充分重视。

数字人类

随着技术的不断发展,基于LLM的聊天机器人正在逐渐演变成为多模态的,也就是说,它们可以生成图像、视频和音频等多种形式的信息。这一趋势将会进一步扩展这些模型的应用。

多模式应用的一个可能的用例可以在“数字人类”中看到,这些是完全合成的创作。根据哈佛商业评论的一篇报道,计算机图形学和人工智能的快速进步正在为聊天机器人和其他基于计算机的界面赋予类人的面孔,精确复制一个真人的外观,从而实现更高端的功能。

数字人类是“高度细致和逼真的人类模型,可以克服逼真性和复杂性的局限。”他补充说,这些数字人类可以以自然和直观的方式与真人互动,“可以高效地支持和辅助虚拟客户服务、医疗保健和远程教育场景。”

然而,数字人类的使用也存在一些潜在的问题和挑战。例如,如果这些数字人类被用于欺骗或误导人们,那么这种技术可能会在社会中引起不良影响。因此,我们需要建立相应的规范和标准,以确保数字人类的使用是符合伦理和道德标准的,并能够为人类社会带来积极的影响。

数字人类新闻主持人的出现无疑是一项令人兴奋的技术发展,然而,这也引发了一些担忧。一项研究发现,合成的人脸被认为比真正的人脸更值得信赖,这可能导致这些人脸被用于歹毒用途。虽然目前没有证据表明数字人类新闻主持人会被用于这种目的,但这一技术的发展确实需要引起我们的警惕。

作为一个社会,我们已经面临着虚假信息、克隆的声音和伪造的图片等问题,而数字人类新闻主持人的出现可能会进一步加剧这些问题。在这种情况下,我们需要更加重视真理和信任的重要性,并采取相应的措施来确保数字人类新闻主持人的使用是符合伦理和道德标准的。

此外,数字人类新闻主持人的外观目前还无法做到与真人无差别,这需要更长时间的技术发展。因此,我们需要保持警惕,并确保这项技术的发展是符合人类社会的利益的。只有这样,我们才能确保数字人类新闻主持人的出现对人类社会产生积极的影响。

声明:本站部分内容来自互联网,如有版权侵犯或其他问题请与我们联系,我们将立即删除或处理。
▍相关推荐
更多资讯 >>>