最后更新日期:2026-05-06
适用对象: 招聘丞相的客户、用户、受测者、经销商、员工、供应商及其他利益相关方。
文件性质: 本政策用于说明招聘丞相在负责任 AI、AI 伦理、AI 治理、数据治理、透明度、公平性、人工监督及禁止用途方面的原则与实践承诺。本政策不替代客户依据其所属行业及所在地法律法规应履行的独立合规义务。


一、定义

1.1 负责任 AI

“负责任 AI”是指以尊重人权、隐私保护、公平性、透明性、安全性、问责机制及持续改进为核心的 AI 设计、开发、部署及运营方法。

1.2 AI 治理

“AI 治理”是指用于管理 AI 系统风险、数据质量、模型生命周期、权限控制、监督机制、文档管理、审计、事件响应及持续改进的组织制度和管理机制。

1.3 公平性

“公平性”是指 AI 系统在设计、测试及使用过程中,应避免对受保护群体造成不合理、不可解释或不成比例的不利影响。

1.4 可解释性

“可解释性”是指在商业上合理可行,且不损害信息安全、商业秘密或第三方合法权益的前提下,提供有关 AI 系统输出的可理解说明、限制、数据来源类型及使用方式。

1.5 人工监督

“人工监督”是指由人员对 AI 系统的设计、部署、输出及决策使用进行监督、审查、干预,并承担相应责任的机制。


二、AI 伦理原则

2.1

招聘丞相将人才分析 AI 视为辅助人类理解、整理和管理数据的工具,而非取代人类判断,或将自然人简化为单一分数的机制。

2.2

招聘丞相以下列原则作为 AI 系统治理基础:

  1. 合法合规: AI 系统的使用应符合适用法律法规、合同约定及平台政策。
  2. 以人为本: AI 应服务于合理、正当,并尊重个人尊严的人才管理目的。
  3. 公平性: 避免不当歧视及不成比例的不利影响。
  4. 透明度: 用户及受测者应能够理解 AI 参与分析的事实及主要限制。
  5. 问责性: 企业客户与招聘丞相应根据各自角色及责任边界承担相应责任。
  6. 安全性: AI 系统应具备合理的信息安全、数据保护及防止滥用的措施。
  7. 持续改进: 模型质量、偏差风险及用户反馈应被持续检查、评估和改进。

三、公平性

3.1

招聘丞相致力于降低 AI 分析对不同语言、文化、性别、年龄、身心障碍、口音、表达方式或其他背景群体造成不合理偏差的风险。

3.2

招聘丞相将在合理范围内进行数据质量检查、模型测试、错误案例分析、功能限制标识及产品设计调整,以减少不公平结果。

3.3

企业客户应避免将 AI 输出直接映射为录用或淘汰门槛,并应建立人工复核机制,以检查是否存在歧视性影响或不合理后果。

3.4

公平性并不表示所有个案结果必然相同,而是要求差异应具有与合法岗位需求相关、可合理解释,且不违反反歧视法律法规及相关规范的基础。


四、可解释性

4.1

招聘丞相将提供用户可理解的结果说明,包括分析维度、数据来源类型、系统限制、建议解读方式及不应使用的场景。

4.2

招聘丞相不承诺披露完整模型参数、训练数据、第三方模型细节、商业秘密,或可能造成信息安全风险的相关信息。

4.3

当 AI 输出被用于可能影响自然人权益的场景时,企业客户应能够向受测者提供适当层级的说明,包括 AI 参与分析的事实、人工审查方式及权利行使渠道。


五、人工监督

5.1

招聘丞相支持 Human-in-the-loop 原则。AI 输出不得作为重大人事决策的唯一依据。

5.2

企业客户应指定具备相应权限及培训的人员审查 AI 报告,并确保该人员有能力识别错误、偏差、数据不足或不适用场景。

5.3

招聘丞相在产品设计中将尽可能避免鼓励自动化淘汰、单一分数决策,或缺乏人工复核的高风险流程。


六、透明度

6.1

招聘丞相要求企业客户在使用 AI 分析、录音录像、声音分析、面部或表情分析前,向受测者提供清楚、充分且易于理解的告知。

6.2

招聘丞相将通过政策文件、产品提示、说明文档、合同条款及客户支持,协助企业客户理解 AI 功能的用途、限制与风险。

6.3

透明度并不意味着无限制披露保密技术,而是使受影响者能够理解其数据如何被使用、AI 是否参与分析,以及其可以依法行使何种权利。


七、偏差降低

7.1

招聘丞相将在可行范围内,通过数据审查、模型评估、输出监控、错误反馈、版本管理、用户教育及政策限制等方式降低偏差风险。

7.2

偏差降低是一项持续过程,并非一次性保证。AI 系统仍可能因环境、数据质量、文化背景、使用方式或其他因素而产生偏差。

7.3

招聘丞相鼓励企业客户反馈疑似偏差案例,并在必要时停用特定功能、调整使用流程或引入额外人工审查。


八、数据治理与隐私保护设计

8.1

招聘丞相采取数据最小化、目的限制、访问控制、加密、审计记录、保存期限管理及删除机制等数据治理措施。

8.2

招聘丞相在设计新功能时,将评估个人信息保护风险、AI 滥用风险、数据安全、权限设计、默认设置、用户告知及受测者权利保障等事项。

8.3

招聘丞相不会出售企业客户或用户的个人信息,也不会在未取得授权或缺乏合法依据的情况下,将客户数据用于与提供服务无关的目的。

8.4

企业客户仍应根据其角色,负责数据收集合法性、告知同意、保存期限、内部访问控制、下载后数据管理及受测者权利响应等事项。


九、禁止用途

9.1

招聘丞相不支持且禁止以下用途:

  1. 社会信用评分,或以不透明方式对自然人进行普遍性排名;
  2. 政治监控、工会活动监控、宗教信仰监控、公共集会参与识别或政治倾向推估;
  3. 违法监控、秘密录音录像、未经告知的情绪分析、面部分析或生物特征信息处理;
  4. 基于受保护特征进行歧视性筛选、评分或排除;
  5. 医疗诊断、心理诊断、测谎、犯罪倾向判断,或其他高度侵害人格权、隐私权或基本权利的用途;
  6. 任何违反法律法规、主管部门指引、人权原则、劳动法律法规或招聘丞相政策的用途。

十、AI 治理架构

10.1

招聘丞相将通过跨职能协作方式治理 AI 风险。治理参与方可能包括产品、工程、信息安全、法务、隐私保护、客户成功、运营及管理层等相关部门或人员。

10.2

AI 治理活动包括但不限于:功能风险分级、数据来源审查、模型变更记录、测试与评估、使用限制设计、客户文档更新、事件响应、供应商管理及定期政策审查。

10.3

对于可能造成较高风险的功能,招聘丞相有权要求企业客户作出额外承诺、限制使用场景、启用人工审查提示,或拒绝提供相关服务。


十一、持续改进 AI 质量

11.1

招聘丞相将持续评估 AI 系统质量,包括可用性、稳定性、错误案例、偏差风险、用户反馈、安全事件及法律法规变化等。

11.2

模型或功能更新可能导致输出格式、指标、分数或建议方式发生变化。招聘丞相将在发生重大变更时,以合理方式通知企业客户。

11.3

除非招聘丞相明确提供版本对照或校准说明,企业客户应避免将不同模型版本的结果作为绝对可比较指标。


十二、责任限制

12.1

本政策描述招聘丞相的治理方向及商业上合理的措施,不构成 AI 无偏差、无错误、符合所有法域要求或适合所有用途的保证。

12.2

企业客户应对其使用场景、告知同意、人事决策、法律依据、人工审查及受测者权利处理承担责任。

12.3

招聘丞相的责任限制依主服务合同执行;如未作约定,则以事件发生前十二个月内企业客户就相关服务实际支付的服务费用为上限。


十三、不可抗力

13.1

因法律法规变化、主管部门要求、云服务或模型供应商中断、重大信息安全攻击、战争、自然灾害、疫情,或其他非招聘丞相合理控制的事件,影响 AI 功能、政策执行或治理流程的,招聘丞相在受影响范围内不承担违约责任,但将采取合理补救措施。


十四、可分割性

14.1

本政策任一条款被认定为无效或不可执行的,不影响其他条款的效力。无效条款应以最接近原目的的有效条款予以替代。


十五、联系我们

如您需要咨询 AI 伦理、负责任 AI、偏差反馈或治理相关问题,请联系我们