求是专访 | 怎样科学有效驾驭算法 - 求是网

求是专访 | 怎样科学有效驾驭算法

来源:《求是》2025/24 作者:《求是》杂志记者 梁佩韵 2025-12-16 09:00:00

  求是专访

怎样科学有效驾驭算法

《求是》杂志记者 梁佩韵

  编者按:网络生态治理是网络强国建设的重要任务,事关国家发展和安全,事关人民群众切身利益。习近平总书记在二十届中央政治局第二十三次集体学习时强调,要健全网络生态治理长效机制,着力提升治理的前瞻性、精准性、系统性、协同性,持续营造风清气正的网络空间。随着人工智能技术的持续发展,算法在网络生态中的作用日益凸显。算法用得好,能提升经济社会运行效率,但若运用不当,也可能沦为网络生态的破坏者。当前,算法引发的隐私泄露、“大数据杀熟”、算法歧视、“信息茧房”等风险备受社会关注,如何科学有效驾驭算法成为重要课题。为此,本刊记者专访了北京中关村学院院长刘铁岩、中国政法大学人工智能法研究院院长张凌寒、中央民族大学新闻与传播学院院长毛湛文,就算法相关问题进行深入探讨。

  记者:算法作为人工智能的核心驱动力,在发展中呈现出哪些规律和特征?

  毛湛文:近年来,伴随深度学习、大模型等人工智能技术日益成熟,算法和海量数据、云计算、传感器网络关联在一起,成为社会的“数字底座”。作为人工智能的核心驱动力,算法的发展可以从技术、应用、社会文化层面来理解。从技术路径看,算法越来越呈现出“规模化”和“多模态”特征。大模型训练规模呈指数级增长,数据、算力与模型参数的叠加,使算法具备更强的生成能力。同时,多模态算法的快速发展,使语言、图像、音频等信息的综合处理成为可能,推动人工智能从“任务型”向“通用型”迈进。从应用生态看,算法呈现出显著的基础设施化特征,通过云服务、大模型平台的形式提供计算服务,深度嵌入新闻传播、社会治理、商业营销、公共服务等多元场景。在社会文化层面,算法具有结构化人与信息关系的能力。算法的推荐和排序等信息推送形式形成一种强反馈,被推流的内容更容易被用户看见,且多是用户喜欢的类型。这种信息分发逻辑在平台中制造出明显的“马太效应”:头部账号、热门话题曝光度高,小众议题、长尾内容很难“破圈”。这既提高了信息的“匹配度”和分发效率,但也损害了信息的多样性与公共性。

  张凌寒:当前,算法技术已超越单纯的技术代码范畴,演变为数字社会的基础运行规则与核心生产工具。从应用广度与深度来看,算法已实现从简单的逻辑运算向深度学习、生成式人工智能的跨越。在社会生产领域,算法广泛应用于自动驾驶仿真测试、工业互联网优化等环节;在数字文化领域,基于用户画像的“算法分发”成为主流,生成式人工智能重塑内容生产模式,实现从辅助创作到自主生成的转变;在公共治理领域,算法嵌入行政决策与资源分配,如智慧城市的交通调度、公共服务的精准匹配,极大提升了治理效能。同时,算法技术也表现出显著的“权力化”与“黑箱化”特征,演变为一种新型权力。它通过代码设定标准、分配资源、评价个体,具有了事实上的规制力。随着深度学习技术的进步,算法的决策逻辑日益复杂,呈现出“不可解释性”和“不可预见性”,即便是开发者也难以完全洞悉神经网络内部的决策路径。这种技术上的“黑箱”导致监管的穿透难度加大。此外,算法还具有动态演化性,其在投入使用后仍会通过与用户数据的交互不断自我迭代,打破了传统技术静态验收即合规的监管逻辑,使其行为后果具有高度的不确定性。

  记者:算法在提升运行效率的同时,也暴露出算法歧视、“信息茧房”、诱导沉迷等现象,如何看待和解决这些问题?

  张凌寒:算法歧视、“信息茧房”与诱导沉迷等现象,本质是算法技术对人的主体性与数字权利的深刻挑战,是技术理性与人文价值冲突的集中爆发。

  关于算法歧视,这并非简单的代码错误,而是历史偏见与数据偏差的数字化投射。算法通过对历史数据的学习,往往继承甚至放大了既有的社会不公。例如,在信贷审批、招聘筛选等场景中,算法可能基于种族、性别等特征进行隐性打压。更深层次的歧视体现为“机会剥夺”,即算法通过自动化决策将特定群体排除在优质服务或发展机会之外。这种歧视往往隐蔽于复杂的数学模型之下,受害者难以察觉,更难以举证,导致有的实质上的社会不平等被技术外衣合法化。“信息茧房”与诱导沉迷,反映了算法不当应用对人类自主选择能力的侵蚀。商业平台为了吸引注意力,利用算法“轻推”甚至操纵用户的认知与行为。通过高频次的精准推送,算法构建了用户的决策架构,利用人性的弱点如对即时满足的渴望瓦解人的自律,让用户在不知不觉中丧失了信息选择的主动权,被禁锢于同质化的信息回音室中。这不仅导致认知的狭隘化,还在更深层面上造成人的“客体化”——人不再是具有独立思考能力的主体,而是变成各类互联网平台可预测、可操控的数据节点和流量资源。

  因此,正确认识和解决这些问题,必须上升到数字正义与人本主义的高度。算法不应仅追求效率的最优化,必须通过伦理嵌入与法律规制,防止技术对人的异化。我们需要警惕算法权力对个人尊严、自主选择权和平等权的系统性侵害。

  刘铁岩:谈论算法带来的社会问题,需要跳出“技术善恶”的简单二元论。算法本身是一种工具,算法歧视、“信息茧房”、诱导沉迷等问题的背后,有数据、场景甚至商业意图等各种因素的推动作用。算法歧视的根本原因在于训练数据中固有的历史偏见,并且在用户广泛使用算法时将这些偏见传播到更大范围。“信息茧房”源于推荐系统对单一优化目标的极致追求,导致用户接触信息的多样性降低。过度沉迷则反映了产品机制与人类心理机制之间的深层拉扯。这些问题无法在实验室中被完全预见,只有当算法与数十亿用户的真实行为相遇时才会显现。

  社会对算法的批评,往往忽略了算法系统的动态演化属性。算法是持续学习的复杂系统,会在与环境交互中不断调整自身策略。比如,今天每英里的飞机失事率比几十年前低得多,Linux内核的漏洞比过去难找得多,真正的系统安全都是通过大范围部署、故障暴露和持续修正迭代实现的。算法系统同样如此。我们不应以“初始完美”作为治理目标,而更应该思考如何构建高效的反馈机制,让问题能够被及时发现、归因和修复。只有在真实运行环境下不断接受用户反馈,算法才能持续迭代,逐步趋于安全。

  记者:算法技术存在怎样的治理困境?背后的原因有哪些?

  毛湛文:算法的治理困境主要体现为治理对象的模糊性、治理规则的矛盾性、治理责任主体的多元性等,这些问题的根源来自技术逻辑、平台权力与制度滞后之间的相互影响。第一,治理对象的模糊性。与传统基于明确规则的“可读代码”不同,深度学习时代的算法,由于具有模型规模巨大、参数庞大、行为非线性等特征,即使是开发者和平台方也难以解释其决策逻辑,这是“黑箱社会”问题在技术层面的具体体现。第二,治理规则的矛盾性。各国的算法规制几乎都在强调促进创新、维护公平、防范风险、保护隐私、保障言论空间等多重目标,但在具体规则设计和执行层面,这些目标之间却存在一定的矛盾冲突。例如,提高模型透明度有助于问责,但可能泄露商业秘密甚至被恶意利用;强化风险防控可以降低歧视和安全隐患,却可能无形中抬高合规成本、抑制技术创新。在人工智能技术透明度与可解释性上,法律对“可理解”的要求与技术对“高精度”的追求之间同样存在一定的矛盾,这使治理规则在具体推进过程中面临一些现实阻碍。第三,治理责任主体的多元性。算法带来诸如歧视、误导、沉迷等后果时,通常涉及算法设计方、数据提供方、平台运营方、用户个体方等多个责任主体。主体的多元性无形中带来责任的分散性,掌握算法代码运行和管理的平台,容易在“责任分摊论”、“技术中立论”等论调的掩盖下逃避或推诿承担的主要责任。基于这一现状,亟待划定算法治理的责任边界,加强对技术平台的责任约束,探索构筑协同共治、各司其职的治理格局。

  张凌寒:算法治理面临多重困境的核心原因,在于传统的法律规制体系难以适应算法技术的流变性与复杂性。现有的法律规范多基于工业时代的物理实体构建,追求确定性与稳定性,而算法技术迭代极快,具有高度的流动性与不确定性。例如,对于生成式人工智能带来的“幻觉”风险、数据侵权等新问题,传统的版权法等在认定侵权主体、主观过错及因果关系时显得捉襟见肘。法律的滞后性与分散性,导致在面对新型算法侵害时,缺乏精准的案由与裁判规则,往往只能通过类案检索或原则性条款进行模糊适用。同时,算法的专业壁垒极高,且涉及企业的商业秘密。监管机构与平台企业之间存在巨大的信息不对称。平台往往以算法复杂、不可解释或商业机密为由,拒绝披露核心逻辑,导致监管难以深入到底层代码与运行机制。这种“技术面纱”使监管往往只能停留在事后的结果应对,而难以实现事前的风险预防与事中的穿透式监管。如何在保障算法安全、维护公共利益与促进产业发展、鼓励技术创新之间找到平衡点,是立法与司法面临的巨大挑战。

  市场监管总局近期发布实施外卖平台推荐性国家标准《外卖平台服务管理基本要求》,针对“外卖配送员权益保障不足”等问题,提出平台要综合考虑路况、天气、配送难度等因素对调度算法进行优化,科学规划配送路线。图为2025年10月2日,一名外卖员在河南省焦作市温县街头骑行,为顾客送餐。 新华社发 徐宏星/摄

  记者:未来算法技术的发展趋势是怎样的?可能带来哪些新的社会挑战?

  张凌寒:算法技术将向着“通用化、生成式、自主智能”方向加速演进。在发展趋势上,基础模型将成为核心底座。未来的算法生态将高度依赖少数几个强大的通用基础模型,大量的应用将通过应用程序接口或微调建立在这些模型之上。这意味着算法的“价值链”属性将更加凸显,上下游的依赖关系更强,风险传导速度更快。同时,算法将具备更强的多模态处理能力与自主决策能力,从单纯的信息分发走向内容创造甚至对物理世界的操控。

  算法技术带来的新挑战主要体现在以下几个维度:一是真实性危机与认知混乱。生成式人工智能可能产生虚假信息、幻觉,这将极大地冲击社会的信任基石。面对真假难辨的内容,公众的认知可能面临混乱,甚至可能被用于制造政治谣言、操纵舆论,威胁国家安全与社会稳定。二是“责任鸿沟”扩大。随着算法自主性的增强,人类在人机协作决策中的作用可能被进一步稀释。当人工智能系统在没有人类直接指令的情况下“自主”造成损害,如自动驾驶事故、人工智能生成的诽谤内容,如何界定开发者、部署者与使用者的责任将变得非常困难。传统的过错责任原则可能面临失效,导致受害人陷入无处追责的境地。三是新型数据信息损害的泛化。未来的算法侵害将不再局限于实体财产或人身伤害,而更多体现为无形的、微小的、系统性的损害。例如,个人信息被用于训练模型导致的隐私泄露风险增加、因算法偏见导致的未来发展机会丧失、因长期被算法操纵导致的精神焦虑与自主性丧失等。这些非物质性损害在现有法律框架下难以被量化和救济。四是安全风险的系统性升级。基础模型的通用性意味着一个底层的安全漏洞可能波及下游成千上万的应用。数据投毒、提示词攻击等新型攻击手段将对网络安全构成不对称威胁。

  记者:应当构建怎样的法律制度框架和技术伦理规范来应对算法带来的挑战?

  张凌寒:应对算法挑战,必须构建一个“分层治理、全程覆盖、价值引领”的立体化法律制度框架与伦理规范体系。

  在法律制度设计上,应确立全链路治理与场景化规制相结合的思路。一是构建基于价值链的责任体系。打破单一的服务提供者责任模式,依据基础模型开发、系统集成、服务应用等不同环节,按“获益与风险相一致”及“危险控制”原则分配责任。基础模型开发者应承担模型安全、数据合规的源头治理责任;服务提供者应承担场景化风险管理的责任。二是推进算法治理的场景化。针对生成合成、个性化推送、排序精选、检索过滤、调度决策等不同算法应用场景,设定差异化的监管要求与注意义务。避免“一刀切”式监管,确保法律规制与技术应用的实际风险相匹配。三是完善损害救济制度。承认“数据信息损害”的独立法律地位,将个人信息权益受损引发的风险升高、机会丧失、精神焦虑等纳入可赔偿范围。对于微小但系统性的算法侵害,应探索建立公益诉讼制度与法定赔偿机制,降低个体的维权成本。

  在监管手段上,实施穿透式监管。监管机构不能仅停留在对服务表象的管理,而应深入到算法的底层逻辑、数据来源与审核机制。继续完善算法备案、算法审计与合规评估制度,要求平台在关键环节保持算法的透明度与可解释性,打破“技术黑箱”。

  在技术伦理规范上,坚持以人为本与智能向善。一是确立“人在回路”原则,即人类实质性把关决策结果。在涉及生命健康、司法裁判等重大权益的决策中,必须保留人类的最终干预权与否决权,保障人不受自动化决策的绝对控制。二是强化算法的伦理嵌入。要求开发者在算法设计阶段即导入公平、非歧视、隐私保护等伦理价值,进行红队测试以防范潜在风险。三是保障用户的算法解释权与拒绝权。落实用户知晓算法运行逻辑的权利,以及在特定情况下拒绝个性化推荐、标签化画像的权利,保留人离开算法控制、回归自主决策的自由。

  刘铁岩:算法的治理单靠技术手段远远不够,必须推动认知升级和制度创新,实现多层次、多主体协同治理。技术层面,要持续提高算法的公平性、透明度和可解释性,从源头消除歧视与偏见;制度层面,要制定并落实清晰全面、公平合理、务实前瞻的法律法规,明确问责机制,维护用户权益;伦理层面,要不断强化技术提供商、企业与机构的社会责任意识,并同步培养公众的算法素养。《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》明确强调在全面实施“人工智能+”行动的同时,也要“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”,并进一步“完善监管,推动平台经济创新和健康发展”。这种“发展与规范同步”的战略部署,不仅为人工智能赋能千行百业提供了广阔的创新空间,更会以完善的监管保障技术的健康发展,对推动前沿科技与平台经济的创新发展具有重要意义。

  记者:感谢各位专家接受采访。

网站编辑 - 王慧 校对 - 徐勇林 何晨琛 审校 - 乔雪