登录名: 密码: 忘密码了
    设为主页 |  关于我们 | 联系我们  
ChatGPT遭遇阻击:生成型人工智能是助手还是威胁?
日期: 23年04月1期
《中文导报》专题报道组


 自从ChatGPT问世以来,引发了一场席卷整个科技界的AI军备竞赛。人们惊艳于人工智能卓越能力的同时,对于人工智能向何处进化、是否会威胁人类的担忧也越来越多。

3月31日,意大利宣布即日起禁止使用聊天机器人ChatGPT,打响了人类保卫战的第一枪。

据意大利数据保护局(DPA)最新消息,从即日起禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。个人数据保护局开始立案调查。

个人数据保护局认为,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失情况。此外平台没有就收集处理用户信息进行告知,缺乏大量收集和存储个人信息的法律依据。

意大利宣布,OpenAI公司必须在20天内通过其欧洲代表,向意大利个人数据保护局通报公司执行保护措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。欧盟在数据保护方面一直是全球的先行者,在落地层面也是全球最为严格的监管者。其中,意大利更是一马当先。

无独有偶,在欧洲执法机构和消费者保护组织先后拉响对ChatGPT潜在危害的警报的同时,马斯克、图灵奖得主等一众大佬也签署公开信、联名呼吁暂停大型AI研究,引起波澜。

网络联名公开信:呼吁暂停研发更强AI模型


最近几个月人工智能实验掀起了狂潮,大家都在争先恐后地去开发和部署越来越强大的数字大脑,但目前并没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。面对这样的现状,所有人都应该行动起来——跑步前进,还是原地等待,大佬们开启大辩论。

3月30日,超过千名产业界和学术界的大佬们在“生命未来研究所(Future of Life Institute)”网站上发布联名公告:呼吁全球所有实验室暂停更强的AI模型研发,暂停时间至少为6个月。在此期间,人工智能领域的专家和行业参与者应该共同制定一套安全协议,并对技术发展进行严格的审查和监督。



OpenAI旧金山总部的先驱大楼。由HaeB - 自己的作品,CC BY-SA 4.0,来自维基百科

参加联署者全都是重量级真大佬,包括全球知名公司的创始人、CEO,各国人工智能的资深研究专家。这是一次史无前例的产业界和学术界的联名,对于当前的人工智能热潮发出了另一种强有力声音。这封信引起了很多共鸣,越来越多的人开始在社交媒体上呼吁大家加入这场“请愿”之中。目前签名人数已经达到了1280人,人数还在增加中。

这封公开信,主要传达了两个方面的信息:一是警告人工智能存在对人类社会的潜在威胁,要求立刻暂停任何比GPT-4更强大的人工智能系统的训练,时间跨度至少6个月。二是呼吁整个人工智能领域以及政策制定者们,要共同设计一套全面的人工智能治理系统,对人工智能技术的发展进行监督和审查。



词曲作者尼克·凯夫 (Nick Cave) 称 ChatGPT 是“对人性的荒诞嘲弄”。由Henry W. Laurisch - 自己的作品,CC BY-SA 4.0,来自维基百科


信中指出,人工智能已经表现出了与人类相当的水平,但人类却并没有准备好了接受人工智能带来的一切问题和挑战。包括:是否应该让机器在信息渠道中宣传不真实的信息?是否应该把那些带给人类成就感的工作都推向自动化?是否应该开发超过人类数量非人类的大脑,使其最终胜过人类的智慧,淘汰并取代人类?是否应该冒着失去对人类文明控制的风险?

人工智能研究和开发,应该重新聚焦于使当今强大的、最先进的系统,更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。

AI开发人员必须与政策制定者合作,以加快开发强大的 AI 治理系统。涵盖内容至少应包括:专门负责 AI 的新的和有能力的监管机构;监督和跟踪高性能人工智能系统和大量计算能力;出处和水印系统,以帮助区分真实与合成并跟踪模型泄漏;强大的审计和认证生态系统;人工智能造成的伤害的责任;为技术人工智能安全研究提供强大的公共资金;以及资源充足的机构来应对人工智能将造成的巨大的经济和政治破坏。

公开信末尾呼吁,“让我们享受一个漫长的人工智能之夏,而不是匆忙地跑进秋天”。

不过,OpenAI的管理人员说,他们还没有开始训练GPT-5。OpenAI首席执行官Sam Altman表示,公司长期以来在开发时将安全作为重点,并在GPT-4发布前花了六个多月的时间对其进行安全测试。

人与人工智能的界限愈发模糊,伦理困扰逐步出现

美国作家雷蒙德·库茨魏尔曾在他的著作《奇点临近》里预测,在2045年我们将迎来技术的奇点。

他写到,奇点发生在人工智慧比人类还要聪明、还有能力的时候,科技发展已经由机器接管,机器也可敏捷地思考、行动和沟通,甚至快到正常人无法理解。机器或是那些已经机器化的改造人掌握了全世界,机器进到加速自我反应的回圈,每一代的人工智慧都会越来越快,并且成指数加快,到了这个时候,科技爆炸性发展,因为人类文明已经被机器所掌握,所以之后的科技发展无法被精确预测。

虽然目前吵得沸沸扬扬的人工智能ChatGPT看起来只是个只能聊天机器人而已,不过根据斯坦福大学的研究发现,ChatGPT的第3个版本已经可以解决70%的心智理论任务,相当于7岁儿童;至于ChatGPT3.5版本(ChatGPT的同源模型),更是解决了93%的任务,心智相当于9岁儿童。



OpenAI CEO 山姆·柯曼,由TechCrunch - TechCrunch Disrupt San Francisco 2019 - Day 2,CC BY 2.0,来自维基百科


至于ChatGPT这个聊天机器人是否真具有心智,那还需要反复的进行研究和论证,但是令人感到困惑的事,人类终究发明出了这种“聪明”过以往人工智能的软件。

旅日华人小L表示,可以预见在不久的将来,或许很近,我们就能见到拥有强学习能力的智能机器人出现在身边,届时科幻文学作品和好莱坞电影里所担心的那些事情都会逐一发生。

他说,人们开始使用iphone式的智能手机只有十多年的时间,在科技历史的长河中仅是沧海一粟,但当前我们已经很难想象没有智能手机和网络的日子。技术奇点应该是人类还没有意识到就已经来临,很多人也如此认为。

小L表示,强人工智能的出现一定会让人类不知所措。大家恐怕都听说过“机器人三原则”,这是科幻小说家艾萨克·阿西莫夫在他的机器人相关作品和其他机器人相关小说中为机器人设定的行为准则。具体为第一,机器人不得伤害人类,或坐视人类受到伤害;第二,机器人必须服从人类命令,除非命令与第一法则发生冲突;第三,在不违背第一或第二法则之下,机器人可以保护自己。以上几点无非是站在人的角度上去理解智能机器人,把机器定义为“物品”。

然而,智能机器人或软件有了意识和心智,人类将不能再视它们为机器。况且,强人工智能一旦“觉醒”,它也会思考自己是一个什么样的物种,与人类、与自然的关系。到那个时候,好莱坞电影《机械姬》里叙述的故事就会发生,即把强人工智能当成“人”也不是,不当“人”看也不行。这会使得人类出现强烈的伦理困扰,小L如此说到。

不久前,包括马斯克在内,多位科技公司高管和顶级AI研究人员正呼吁暂停对强大的新AI工具的快速开发。他们表示,暂停时间至少在六个月或更长。这将使该行业有时间制定AI设计方面的安全标准,从而防止风险最高的一些AI技术的潜在危害。

实际上,以现在的人类科技模拟出简单的一个生物头脑已经不是不可能的事,一如化学技术累积发展下,现在许多研发药品已经使用计算机模型来推演药物效果等。从前在使用电脑语言的时代,原先电脑被认为是不可能具备自我解决能力的,电脑只是看起来聪明,实质上还是按照设计好的规则行事,并不能应付突如其来的状况,仍旧会犯下错误,而近年来透过技术突破,使人工智慧越过发展中的坎——神经处理机制的发现,“熟能生巧”在人工智能层面得到实现。如此一来,人脑与人工智能的区别将变得更加模煳。

 华人教授如是说

日本杏林大学教授刘迪说:关于ChatGPT,想谈几个观点。

一是人工智能的发展比人类想象的要迅速。在现阶段,人工智能具有了高度的认知能力,推理判断能力,也就是具有了我们说的理性,。但是,这种人工智能虽然拥有了高度的理性,却缺乏“心灵”。高度理性,并非一定可以判断善恶。这是人类对最近人工智能研究的最大担心。
 
另外一个问题是,人工智能开始构建自我,这也是人类对ChatGPT感到恐惧的原因。人类的个体自我发展以及集体自我的形成,经过了一个漫长的过程,而人工智能的自我,迅速成长。许多人工智能学者担心的是,人工智能的自我之间的结合,使他们可能欺骗人类,而在此之前我们可能一无所知。
 
目前,在人工智能前,人类在许多认知领域已经如同孩儿,这种情况可能让具有高度理性的人工智能抓住人类的弱点。除了某些科幻小说的原则外,目前并无任何世界公认的人工智能开发的法律可以保障人类的生存与发展。如果我们发展人工智能的目的是功利主义,我们的前景将令人怀疑。
 
刘迪教授认为不应该回避人工智能,他曾给他的学生们在小范围留下如此的作业,就是在回答自己的问题时,自己的想法和解答和人工智能有什么不同?哪些是人工智能可以做的?哪些是它们不能做的?哪些是人工智能可以做,自己却不能做的,从中得出人的智能和人工智能的不同点。

人工智能根据外部环境的变化,也会根据新的资料的输入和自我学习改变自己的观点。同时它们也清醒地认识到他们与人的不同,你去问他们时,他们也会清楚地回答自己就是一个软件,是一个程序,是一个工具,但是这种界定可能有一天会被突破,现在的ChatGPT已经具有了一定的自我认识的能力了,恐怕这种强大的认知能力的发展,使它终究有一天会判断你不如它,那个时候就会出现许多我们也想象不到的问题。



中国发展高层论坛2023年年会25日至27日在京举行,苹果公司首席执行官蒂姆蒂姆·库克在参加会议期间表示,纵观全世界范围的创新,人工智能十分重要,技术发展迅速,对人类产生重大影响。“作为技术发明者,我们应该确保使用正确方式帮助人类,这是非常重大的责任。”图为3月25日,蒂姆·库克(中)在“CDF TALK”演讲后离开会场。 
  中新社记者 田雨昊 摄

但是刘迪教授警告说,对人工智能社会的诞生,人类并未做好准备。他指出,在强大的人工智能发展面前,人类文明构筑的所有已知的社会基础,价值都必须重估,而人类心智以及整个社会并未做好最起码的准备。

据悉,一年前刘迪教授曾与在日华人教授任向实、程子学共同创建了心智论坛,讨论人工智能发展与人类社会融合的有关问题。迄今这个论坛每月举办一次公开或内部讨论,每次均吸引了全球有志积极参与。

在日华人的chat GPT体验谈

在日华人接触chat GPT以后又有怎样的感想呢?我们收集了几段有代表性的。

我用过几次,最大的感受是信息量不但大,而且精准。今后不要再去问谁什么问题了,直奔chat GPT就可以。过去有一句话说:“有事问度娘”;就是去百度一下的意思。但是百度推送的,是考虑自己的利益优先。chatGPT的信息来源,是基于整个因特网平台里积累的经验和信息,所以具有准确性和公平性。

chatGPT对应多种语言,你用西班牙语提问,就回答西班牙语,而且是全世界的西班牙语信息平台中筛选出来的信息,不像百度只从中文平台筛选。

chatGPT是类似于因特网一样的革命性事件,它也在不断进化,我们普通用户,一面使用,一面伴随着chatGPT一起适应日益增长的信息社会。
这是一个划时代的工具。

人类社会掌握了石器制造技术,使得人类活动范围,饮食结构发生巨大变化,现在也是:chatGPT的出现解放出人的一部分劳动力之外,会加速人类社会的发展。(许鸣)

刚注册了ChatGPT,试着问了下,自己一直想要找到原文的话,没想到问题一打出来,回答就出来了,省得我去翻书,智能程度真的惊人。
 
琳姐问:《傅雷家书》里写过 年轻人冷漠是可以理解的,能找到原文吗?
 
Chat GPT:是的,您说的这句话来自《傅雷家书》中的一封信,信的题目是《给儿子的信》。以下是原文:

“我丝毫不觉得你自己不行,我相信你自己一定也不会这样认为。你对待一切,从来不是漠然的态度,而是用你独特的想法,对待一切有生命的物品,都有感情,都有一个自己的主张。只是年青人的漠然,是可以理解的,这是在正常的成长过程中,难免会有的事情。不过,只要你坚定了信念,知道了你的责任,认识到了你的缺点,发扬你的优点,你就一定会获得成功。”

希望这个回答能帮到您。拥抱新的时代。(琳姐)
 
最近一直在关注Chatgpt方面的东西。不太懂,纯瞎掰。欢迎大家也给予高见。
1.先把身体练好,成为一个能活到鉴证更多历史变革的人。目标体脂率15%
2.凡是学习研究,工作事业,就不要太较真,一切从兴趣、感觉、天赋和激情出发。做到自我享受就可以了。
3.感性比理性未来可能更珍贵。我们应该回归本真,有血有肉,更放飞自己。
4.从唯物到唯心,相信天命。
5.敢于被AI利用,被AI玩弄。(康康的小牛奶)
 
让我们更加坚信我们一直以来的做法,不能以将“省钱”当成第一需求的人做为追求的客户群,他们会不停的想用更省钱的办法来替代你。要对应那些把“安心感”,“嫌麻烦”这种情绪价值需求放在第一位的人群。
追求“安心感”的人群,不会相信它。追求“不让自己麻烦”的人群,根本不会用它查找然后自己去办理。銀座の陪酒女郎永远不会被这玩意替代,因为去的都是追求情绪价值的爷们儿。(富永悠人)








https://www.chubun.com/modules/article/view.article.php/c43/201624
会社概要 | 广告募集 | 人员募集 | 隐私保护 | 版权声明
  Copyright © 2003 - 2020中文产业株式会社 版权所有