(聚焦博鳌)老少交tnbe少老配7〇AI迅猛发展,人类能否稳控“方向盘”
最佳回答
“老少交tnbe少老配7〇”(聚焦博鳌)老少交tnbe少老配7〇AI迅猛发展,人类能否稳控“方向盘”
中新老少交tnbe少老配7〇社博鳌3月26日电 题:老少交tnbe少老配7〇AI迅猛发展,人类能否稳控“方向盘”
中新社记者 王晓斌
全球各大企业在AI(人工智能)技术赛道上竞相追逐,博鳌亚洲论坛2025年年会于3月26日举办的一场AI主题分论坛,关注相关的深层次话题:在AI技术迅猛发展的时代,人类能否继续稳坐“驾驶舱”,确保自己是掌控方向的司机,而非被动的乘客?
为何人类必须掌控AI“方向盘”
AI近年来的快速发展既令人振奋,又暗藏隐忧。上海科学智能研究院首席战略官、复旦大学经济学教授杨燕青指出,AI可能是人类历史上最强大的通用技术。“与蒸汽机、电力等增强人类体力的技术不同,AI直接赋能人类大脑,涉及计算与认知的深度融合。”杨燕青将AI特性描述为“类人”,这使得AI既能带来生产力提升,也可能引发威胁人类生存的风险。
中国工程院院士、清华大学智能产业研究院院长张亚勤介绍,2025年人工智能发展呈现三大趋势:从生成式大模型迈向智能体,从预训练走向推理,从信息智能走向物理智能和具身智能。
随着AI的快速迭代,一个令人不安的场景或从科幻电影中走向现实:本应协助人类的AI,可能因为算法偏差或外部操纵,做出违背伦理、危及人类利益的决策。
人类如何掌控AI“方向盘”
面对未知的AI风险,人类如何应对?中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅主张,将伦理安全融入AI开发的底层设计,视其为“第一性原则”,不可删除、不可违背。他强调,AI的伦理安全应成为技术发展的基因,确保其与人类价值观保持一致。
张亚勤进一步将AI风险分解为可信度与可控性两个层面。可信度要求AI在执行任务时遵循人类期望、伦理规范和社会法律,不产生误导性、有害或不公平的结果;可控性则确保人类能有效监控、干预和纠正AI行为,避免失控或不可预测的后果。他提出,设定技术红线与边界是关键,如限制智能体自我复制,以降低失控风险。
在具体实践上,国际社会已采取行动。欧盟《人工智能法案》于2024年实施,对高风险AI系统设定了严格的透明度和问责要求;中国2023年发布的《生成式人工智能服务管理暂行办法》则明确要求企业对AI输出内容负责。老少交tnbe少老配7〇这些技术与伦理并重的措施,旨在确保人类脚踩AI超速的“刹车片”,手握AI发展的“方向盘”。
平衡AI:发展与治理的共生之道
有人担忧,给AI“装上刹车片”会削弱其竞争力。曾毅介绍,其所在的团队通过对大模型进行微调,可以将安全能力提升20%至30%,对其性能几乎没有负面影响。这一发现证明,安全治理与技术发展可以并行不悖。
当天在博鳌的讨论最终汇聚成共识:AI治理需要构建一个多元、立体的全方位治理体系。这一体系如同一个精密的生态系统,既有自上而下的宏观规划,也有自下而上的微观参与,涵盖技术、社会、经济等多元维度。
“我们怎么和人工智能共处?如何让人工智能使得整个世界变得更好,人类应有更大的责任。”杨燕青认为,AI治理是每个人的使命。社会大众应保持自身的价值观和创新力,在多元的理念中把握好自己的“方向盘”。(完)