
网络安全公司HackerOne今日宣布推出"善意AI研究安全港"(Good Faith AI Research Safe Harbor)新框架,旨在为善意测试人工智能系统的研究人员建立明确的授权机制和法律保护。
解决AI测试法律模糊性问题
随着AI系统在关键产品和服务中的快速普及,测试行为的法律模糊性可能阻碍负责任的研究并增加风险。该安全港框架通过为企业和AI研究人员提供清晰统一的标准,消除法律摩擦,从而更快、更有效地发现和修复AI风险。
延续传统软件安全研究保护机制
新框架基于HackerOne 2022年发布的"黄金标准安全港"(Gold Standard Safe Harbor)构建,后者已广泛用于保护传统软件领域的善意安全研究。这两个框架共同定义了企业应如何授权、支持和保护传统系统与AI系统的研究。
HackerOne首席法律与政策官Ilona Cohen表示:"当预期不明确时,AI测试就会失效。企业希望测试其AI系统,但研究人员需要确信做正确的事不会使他们陷入风险。'善意AI研究安全港'为AI研究提供了清晰、标准化的授权,消除了双方的不确定性。"
框架核心承诺
采用该框架的企业承诺:
- 承认善意AI研究为授权活动
- 避免采取法律行动
- 对限制性服务条款提供有限豁免
- 在第三方就授权研究提出索赔时支持研究人员
该安全港仅适用于采用企业拥有或控制的AI系统,旨在支持负责任的漏洞披露和协作。
推动高质量AI测试
"善意AI研究安全港"可供HackerOne客户采用,可与"黄金标准安全港"并行实施。HackerOne指出,采用该计划的企业能向研究人员明确传递信号:AI测试受到欢迎、授权和保护,从而推动更高质量的测试和更强大的成果。
HackerOne首席执行官Kara Sprague强调:"AI安全归根结底是信任问题。如果AI系统未在真实条件下进行测试,信任将迅速瓦解。通过将安全港保护扩展到AI研究,HackerOne正在定义AI时代负责任测试的工作方式。这是企业更早发现问题、与研究人员高效合作并自信部署AI的途径。"
参考来源:
HackerOne launches Good Faith AI Research Safe Harbor to protect responsible AI testing
本文为 独立观点,未经授权禁止转载。
如需授权、对文章有疑问或需删除稿件,请联系 FreeBuf
客服小蜜蜂(微信:freebee1024)

