刘兴亮丨GPT-4火爆,遍地开花的人工智能会失控吗
2023/3/23 22:20:48 刘兴亮时间

     点击上方“刘兴亮时间”关注公众号

     文丨刘兴亮

     编 辑丨柯 锐校 对丨王 心实习生 | 韩朝璐

    

     OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。

     除了对技术进步感到兴奋,有风险意识的人也会产生这样的担忧:人工智能会失控吗?风险如何防范管控?

     美国人工智能研究实验室OpenAI公司的首席执行官山姆·阿尔特曼(Sam Altman)近日表示,他对人工智能(AI)技术的潜力感到兴奋,但也对一些潜在的滥用行为「有点害怕」。

     OpenAI是近期大火的AI聊天机器人ChatGPT的开发商,该公司由埃隆·马斯克与阿尔特曼等人共同创立。

    

     上月,OpenAI创始人之一的埃隆·马斯克表示,「它有巨大的前景也有巨大的能力,但随之而来的危险也是巨大的。」

     01人工智能还没到「失控」水平

     3月15日,OpenAI发布的GPT-4安全文件中提到, 「一些特别令人担忧的是制定长期计划并采取行动、积累权力和资源(‘寻求权力’)以及表现出越来越‘自主’的行为的能力。」

     据媒体报道,近年来,有人工智能研究人员提出警告,足够强大的AI模型如果没有得到适当控制,可能会对人类构成生存威胁。尤其是「人工智能接管(AI takeover)」,这是人工智能超越人类智能成为地球主导力量的假想未来。在这种情况下,人工智能可能会导致灾难性后果。

     随着人工智能的高速发展,其可能带来的风险也引起了人们的高度关注。这就带来了一个担心,遍地开花的人工智能会失控吗?

    

     ▲3月20日,在天津市人工智能计算中心中控室,技术人员在监控设备运行情况。图/新华社

     首先,这种失控现在来看还不致于发生,因为目前的人工智能还没发展到这个水平。

     失控的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。

     但目前的生成式AI本质上还是人类的工具,给它一个指令,它来生成相应的文字、图片等内容,所以人们暂时还不需要有这方面的担心。

     当然,随着技术的不断发展,未来这个潜在风险会成为我们重点去关注的问题。

     02更有可能失控的是用技术来为非作歹的人

     比起失控的技术,更有可能失控的是用技术来为非作歹的「人」。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。

     这很像人们担心会被AI替代导致失业一样,这其实是关注错了重点。因为其实人不会被AI淘汰(至少目前不会),而是会被掌握AI工具的「人」淘汰。

     因此,这个层面上的风险,关键因素都在于人,而不是技术本身。因为即便没有AI,坏人也会用其他手段做坏事,善于学习的人也会运用其他工具提升自己的竞争力。

    

     虽然AI目前不至于失控,但还是有一些风险。

     一方面是它们会一本正经地胡说八道,如果用户把它所说的都认定为事实,那就会被误导。在这方面需要媒体多做普及,让更多人认识到ChatGPT等AI大模型并非无所不知。

     另一方面,有可能出现个人隐私或商业机密泄露的情况。比如,用户在与ChatGPT等聊天机器人交流时,无意识地提供了敏感信息,如个人身份信息、联系方式或公司内部信息等。一旦这些信息被记录或存储,就可能导致隐私或商业机密的泄露。虽然AI服务提供商会采取措施保护用户数据,但数据存储和传输过程中仍然可能存在安全风险。

     此外,由于训练数据集可能存在偏见,聊天机器人的回答会反映这些偏见,从而导致歧视性或不公平的结果。也可能因无法准确判断道德和伦理问题,有时产生不道德或具争议的建议。

     03从三个方向规避人工智能风险

     那人类该如何规避这些风险呢?可以从三个方向进行。

     第一个方向就是提高公众的认知。一方面要提高对AI技术的了解,避免被不恰当的信息所误导;另一方面,提高数据安全意识,避免泄露个人隐私或商业机密等敏感信息。新闻媒体在其中可发挥重要作用。

     第二个方向是实施更全面的人工智能监管。首先,需要制定明确的法规和指导方针,以规范AI的研发、部署和使用。其次,政府、企业、研究机构和民间组织需要加强合作,共同制定和执行AI监管政策,这有助于确保政策的全面性和有效性。另外,由于 AI技术不受国界限制,应积极参与全球性的AI治理倡议,以确保全球范围内的政策协调和一致性。

     第三个方向就是加强对于AI安全的研究。政府、企业和研究机构应增加对AI安全研究的投资,为相关项目提供充足的资金和资源。此外要重视AI安全领域的人才培养,鼓励学生和研究人员从事相关研究,可以通过提供奖学金、实习机会和专门的课程来实现。同时进行跨学科合作,鼓励计算机科学家、安全专家、伦理学家、法学家等领域的专家进行跨学科合作,共同应对AI安全所带来的挑战。

     OpenAI在创立之初的核心宗旨就是——实现安全的通用人工智能,使其有益于人类。

     「安全」这两个字对人工智能来说至关重要。无论是作为开发者、用户还是监管者,人们都应当时刻关注AI技术的安全性,确保人工智能不会被滥用。只有这样,我们才能充分发挥人工智能的潜力,为人类社会带来更多便利和进步。

     ChatGPT相关文章阅读

     从GPT-4到Copilot:问题都让AI解决了,还要人类干什么?

     GPT-4:人工智能的新篇章

     巨头扎堆ChatGPT“求自保”,大模型很快会免费

     让鲁迅、刘兴亮都来评价一下ChatGPT

     ChatGPT的10个靠谱用法

     人类将很快被包围在AI的汪洋大海之中

     ChatGPT还能火多久?

     以ChatGPT为代表的AI将怎样颠覆教育的未来?

     支持头部企业对标ChatGPT,北京有哪些优势?

     ChatGPT背后的投资设计,是一场股权制度和所有权分配的革命

     ChatGPT之父阿尔特曼,一个85后天才的诞生

     ChatGPT爆红,还打不赢搜索,但程序员和自媒体危险了?

     ChatGPT背后:微软的渣男式创新又赢了

     让ChatGPT写了篇它能否取代人类的稿子

     ChatGPT带热的AIGC,堪比工业革命?

     能写论文能聊天,这款机器人是“天使”还是“魔鬼”

     ChatGPT,人工智能划时代的标志

     想加入刘兴亮的「凉粉」群吗?加微信laoliu512,拉你入群

    源网页  http://weixin.100md.com
返回 刘兴亮时间 返回首页 返回百拇医药