应用科技

OpenAI执行长阿特曼:AI越强大,更多怪事会出现,但人类不用担心被取代

(中央社)ChatGPT推手阿特曼(Sam Altman)18日在世界经济论坛(WEF)表示,当世人更接近功能强大的AI时,更多怪事会出现,但不用担心被取代,因人类仍是世事决定者。他也谈到被《纽约时报》(The New York Times)控告及一度被迫下台的风暴。

人工智慧(AI)风云人物、研发热门产品ChatGPT的新创公司OpenAI共同创办人暨执行长阿特曼,18日参与世界经济论坛一场探讨AI带来冲击的论坛。

向来强调AI为善一面的他被主持人札卡利亚(Fareed Zakaria)问道,当AI超越人类的分析和计算能力後,人类还有什麽核心竞争力。

阿特曼举他常说的下棋例子,几年前AI开始有能力下西洋棋时,有人觉得西洋棋已玩完,但没有人想看AI彼此对弈,大家要看的仍是人类棋手能否胜过AI。他表示人类仍会处於较高地位,「是人类在决定世界上什麽事情应该发生」。

针对《纽约时报》控告OpenAI未经许可使用该报数以百万篇文章,以帮助训练聊天机器人为读者提供资讯的官司,阿特曼表示「我们将会付给《纽约时报》很多钱」。

他解释,付费是基於当ChatGPT回答用户的问题时,将会引述来源、对外连结出处,也就是AI提供用户资讯的内容使用到外部来源,就会对内容生产者付费。他强调不只对《纽约时报》,也会对所有内容生产者付费。

换言之OpenAI无意对AI在内部受训练时用到的公开资料付费,阿特曼也说未来数年训练AI的模式会有很大改变。

札卡利亚最後请他谈谈从去(2023)年11月OpenAI引起全球热议的人事地震学到什麽教训。当时共同创业夥伴在董事会发动无预警解雇阿特曼,引爆一波员工辞职跟随,5天後董事会请他回任执行长。

阿特曼支吾了一阵後,委婉地说:「当我们每一步更接近强大的AI时,每个人的性情就像多了10个疯狂点(crazy points),非常有压力,但应该如此,因为我们试着为非常高风险的事负责。」

他也将此感受从内部角度延伸扩大,「重要的是,当我们全世界更接近非常强大的AI时,我预期会有更多怪事,我们需要作更高层次的准备,更多韧性,花更多时间去思考哪里会出错」。

出席同场论坛的云端软体公司Salesforce执行长班纽夫(Marc Benioff)认为,当前AI的问题不在於是否取代人类,而是它能增强人类的能力,但「我们还不太信任它」。

他认为人们须厘清使用AI的核心价值,并说新科技如核能会带来福岛灾难,「我们不想看到『AI福岛』的发生」。

谘询公司埃森哲(Accenture)执行长史威特(Julie Sweet)认为,关键问题应是「如何使用AI,而非如何解决AI带来的麻烦」,她强调须促成以负责任方式使用这项科技。

出席此论坛的英国财政大臣韩特(Jeremy Hunt)同意管制AI,但需让新科技能够成长。他在答覆美欧「在AI战场打赢中国」的说法时强调,AI不应沦为地缘政治强权竞争的工具,但自由民主价值对建立AI标准非常重要。

新闻来源

  • OpenAI执行长阿特曼:AI越强大 更多怪事会出现(中央社)

nord加速器怎么样