
原始标题:人工智能:如何理解“双刃剑”人工智能正在深深地改变世界。但是,这就像一个“双刀片”,不仅带来了巨大的机会,而且还增加了许多挑战 - 在医疗,教育,运输等领域,人工智能可以提高效率并提高生活质量;但是,它也会影响工作,隐私侵略,触发算法偏见等。如何理解“双刀剑”,以便人工智能真正成为促进人类发展的力量。
当前选项决定了未来的方向。在本期中,我们邀请两名专家讨论如何避免风险并指导技术实现良好。
人工智能的技术毫无疑问,革命新革命以及技术和工业变革的先驱。其中,强调价值对齐的通用人工智能NT并可能能够独立定义和完整的无限活动是生产力新质量的共同代表,并且一直是全球科学技术的高度。但是,另一方面,由于大型模型等人工智能技术具有“黑匣子属性”,因此无法完全解释其决策行为,并且无法完全预测和控制其生成的内容。当将这种人工智能技术部署在该国的社会和经济生活方面的各个方面时,可能会从人类的期望,甚至危险的国家安全和人类的普遍利益中出现巨大风险。
1。在国家一级,技术人工智能正在重建国家安全管理模式
我的国家将情报的人工安全纳入了国家的方法,并已被提高到国家苏格兰国内安全的一般概念的组成部分难以置信。这是因为人工智能技术的快速发展正在重建国家安全管理模式,并且在传统技术伦理的范围内遭到了一些风险,并发展了系统的和多维的威胁。
以最受欢迎的建筑模型为例,我们可以注意三种类型的安全危机:
首先,这是技术方面的国际安全挑战和不适当的变化。大型模型的计算,算法和数据的力量产生了一种新型的国家战略资源,其自由和控制与国家主权和安全直接相关。目前,全球计算动力中心仍集中在欧洲和美国的一些巨型技术中,Nvidia的人工智能筹码占据了全球市场共享的80%以上。到今年1月底,美国国会提交了一项法案,以“腐烂”中国的人造智力是第一次。法案获得通过后,将切断两国之间合作的所有渠道。
第二,意识形态和价值道德的隐藏危机。大型模型没有认知价值,但是开发人员的价值可以从大型模型中渗透文本的输出,从而导致意识形态安全威胁。例如,一些由欧洲和美国开发的大型模型开发了视频和图像表达方式,这些模型继续通过欧美电影和电视的文化激情,主要基于西方艺术美学,但无法确定和“理解”非洲文化文化的形状。许多案例表明,欧美模式中包含的西方中心价值值得我们的手表。此外,自媒体信息的不平等质量,网页错误信息的不当爬行以及大型模型生成的未经教育的合成数据可能会“有毒”训练大型AI模型,从而导致输出内容值中的Lieshis。概念和价值观的生命数据的复杂视图潜入大型神经网络模型的“黑匣子”中,这使我们很难分辨出大型模型的某些反社会答案(例如“破坏人”)来自语料库或学会通过建模模型的天堂来理解。由于大型模型在生活的所有情况下都广泛使用,如果允许不可控制的“黑匣子”发展,那么我们很难控制人工智能的系统价值与人类一致,这将导致更大的社会和道德风险。
同样,滞后机构给药和信息的不对称性的结构困境。尽管世界各地都发布了相关法案,以应对技术人工智能带来的证券达德的危险,但通常需要制定和改善这些法律和法规这是一个漫长而复杂的过程,通常会消失在发布后面,并更新新的人工智能产品的速度。人工智能在不同国家的发展和应用水平不同。有关政府,企业,大学研究机构的信息以及对动态化和开发的人工智能技术的公众理解的信息有很大差异,从而导致了许多不当的覆盖层,并与国家之间以及不同社会行业之间的AI管理步骤发生了巨大的冲突。这种类型的不对称性不对称性和缺乏标准很容易在外部的国际AI安全管理中进行误解,并且内部将导致人工智能管理中的“真空区”,从而导致系统叠加的重新定位并增加实施成本。
2。在社会和Pers的层面上滥用人工智能技术可能会导致重建等问题,以便工作,公开混淆,吸引心理希望并否认奉献和学习的能力。
在社会和个人层面上,除了破坏个人隐私并由版权纠纷引起的滥用外,人工智能还会引起许多问题:
社会的重新分配和重建劳动令。实施“人工智能+”可以是“创造性破坏”的Sanhi,即,通常关注的“人工智能取代了人们” - 与普通工人合作的机会已被人工智能删除。国际货币基金组织发布了一份报告,称人工智能有望对近40%的全球就业机会产生影响。有创造力和技术需求低的从业者将面临失业或变革的危机,社会劳动部的结构是ubject to“大型改组”。
“互联网浪费”很难区分信息渠道的真实和误导观众。对于自然科学,财务和医学等特定领域的专业问题,许多大型模型不会接受大规模的专业语料库培训,并且将是认真的,并且“构成”并创建“幻觉模型”。在没有必要的监管机制的情况下,大量未知和审查的文本和图片是由互联网流过的大型模型产生的。在发布真实信息的同时,公众很容易没有专业知识来相信它。
过度使用人工智能的“角色扮演”功能很容易引起心理希望。通过特定算法和数据库训练的大型模型可以扮演虚拟角色,根据用户的说明满足用户的情感需求并与用户交谈。如果用户对此非常上瘾,并且IGN矿石真正的交流,由于缺乏身体和精神,它们会导致巨大的后果。这是因为算法不透明度和“黑色NA框”控制机制形成了信息的“茧”,并且用户被困在选择Aipoin和过滤“信息气泡”中。通过审查我们的信息偏好,该算法使用一种心理机制,人们容易恐惧和焦虑,并使用年轻人心灵的不完整问题,建议用于某些类型的特定信息,增强自然缺陷和偏好,使人们在这里被困在这里并且无法探索自己。
过度依赖人工智能的思维会导致奉献和学习能力的下降。 Tiktok海外版顾问Greg Ethanberg曾经提到斯坦福大学的毕业生经常表现出由于过度使用Chatgpt而在对话中的中断和讲话的迹象。当认知长期以来,无论大脑多么好,思维和学习都被“使用和放弃”,过程中的过程是“外包”。 AI而没有思考产生的“饲料型”内容的采用将导致批判性思维,逻辑思维和创新思维能力的严重退化,这些思维和创新的思维能力应在教育过程中塑造和形成。
3.建立人造智力安全管理框架不仅应涵盖现实中出现的问题,而且还应从静脉开始,以防止“当您有足够的脚痛时头和脚痛时对头部进行治疗”。
面对人工智能的“双刀片”,我们立即需要开发完整的情报安全管理系统。它不仅涵盖了实际问题,而且还涵盖了人工智能的系统和全面理论,从问题的根本原因开始,并预防单方面处理”头痛,脚痛和脚痛”。
增强价值的有效性并制定人工智能评级标准。意识形态,道德价值,由人工智能引起的信息的混乱的主要原因是,大型模型的发展是没有明确的认知建筑和系统价值,并且只能根据人类设定的方法向问题提供机械评论,并且不会使人类价值保持一致。因此,结合了人类价值体系和该规定的建筑对于作为评估和发展人工智能的科学院子,必须将人工智能制定起来,以帮助科学家创造人工智能,这更符合人类需求和更安全的人工智能。
改善技术并设置反添加警告。我们不仅需要从外部设定人工智能的评级标准,而且我们还需要携带OU从人工智能内部的分层转换。使用人工智能的社会团体差异很大,他们的需求具有不同的重点,需要避免的风险将有所不同。以青少年的群体为例,我们应该专注于发展人为的威斯特,这是帮助在课堂上学习并指导兴趣和爱好,以便它可以成为助手和“伴侣”,与青少年的成长一致。同时,为了避免过度上瘾,应该在系统中包括对使用时间的限制和特定的功能分区,并应发布生动且详细的使用教程和警告声明,以确保青少年的身心健康。
猜猜改变工作和加强人工职业智能培训的风险。如何防止人工智能取代人们,不仅要求单个工人适应时间的过程,并积极地欺骗自我完善,但也要求政府和商业部门和机构生成工作保证机制,以保护工人并组织人机关系。在删除“人工智能 +”行动时,可能需要企业应用人工智能,同时计算法律会促进就业考虑,以实现人工智能的道德政策。企业应该在道德和合规性方面做得很好,不应追求具有技术人员的全部交流,而应追求如何利用技术来增强劳动力效率并优化经验。此外,在做前工作时,应针对可以用工作或工作代替的培训师调整相关的技能培训,以增加其在新环境中工作的机会。
形成平等并打开国际人工安全订单。避免人工智能的安全风险是一个普遍的问题面对整个世界,这不是特定国家或地区的特权或义务。目前,发达国家通常拥有比国家的发展更先进的人工智能技术,而国家的发展通常失去了在国际阶段发言的权利,并且缺乏避免和解决人工智能风险的意识。
应该强调的是,理解和抑制人工智能的安全风险的目的不是害怕每个人并否认技术的发展,但希望每个人都有能力评估和应对潜在风险,学会清楚地思考人造人造的波浪,并了解控制人工智能的倡议。让我们在确保自己和社会的安全和韧性的同时,让我们享受聪明的时代的股息和机器!
。
(编辑:李·冯,霍·孟吉亚)
分享让许多人看到