Suggested region and language based on your location

    Your current region and language

    佩戴增强现实眼镜的女子站在夜晚的街头使用智能手机
    • 博客
      数字信任

    《防御AI的黑暗面》

    了解人们如何利用AI来欺骗、操纵或损害组织。

    人工智能(AI)虽仍是一项令人兴奋的新技术,但与其他技术并无不同。如果您决定在组织内实施AI技术,请确保您了解潜在的风险。

    我们都知道AI的好处,但随着35%的企业开始采用AI,我们必须将重心转移到如何在出现问题时做好准备,其中包括了解人们如何利用AI来欺骗、操纵或损害组织,以及帮助防范和缓解风险的工具。

    AI技术被滥用

    与AI相关的一个主要风险是,人们能够轻松伪装自己。例如,AI可以让简历(或履历)看起来很棒,并使制作简历的过程更加快捷。在竞争日益激烈的就业市场,毕业生们使用OpenAI或ChatGPT等软件来撰写求职信和简历。虽然这有助于一些人通过招聘筛选,但企业发现,当求职者参加面试时,简历上的资历与求职者本人之间存在着差距。

    同样,金融机构经常使用在线表格和AI来决定是否向某人发放贷款或信贷。这样的自动化流程意味着公司并不总是与人们面对面交流,从而成为那些想要利用系统的人员的首要目标。

    最近有报道称,欺诈者利用AI技术,以首席财务官(CFO)的名义深度伪造请求,这是对传统鲸钓攻击(一种针对高级管理人员的鱼叉式网络钓鱼攻击)的一种颠覆。

    这些例子突出表明,企业必须谨慎行事,实施严格的筛选流程,并为利益相关方提供培训。

    不道德的商业行为

    AI可以改进在线动态定价策略,从而最大限度地发挥企业优势。94%的购物者在网上购物时会比较产品价格,而算法会监测用户行为,以根据消费习惯提供个性化定价。然而,企业可能会采取欺骗性的定价策略,利用算法来衡量消费者的支付意愿,而不是提供合适的价格。

    这种操纵不仅限于价格调整。企业可以采用复杂的算法来预测和影响消费者的行为,并有可能利用个人偏好或弱点,从而突破道德底线。

    内部和第三方风险

    如果心怀不满的员工拥有AI算法访问权限,可能会破坏运营或泄露敏感数据,从而令内部威胁变得更为复杂。如果员工故意将机密数据输入生成式AI系统,可能会将组织机密暴露给潜在的黑客,从而给企业和客户带来巨大的安全风险。2023年初,某全球电子公司在发现一名员工因工作需要使用AI而泄露了内部敏感信息后,便禁止员工使用AI。

    许多公司依赖第三方提供商提供基本数据和服务。然而,这种合作关系也带来了风险,因为第三方可能有不同的偏见,其风险承受能力也与公司的期望或标准不相符。这种差异可能会导致漏洞,包括缺乏安全措施的仓促开发和更容易被操纵。

    风险防御

    安全基于三大原则:保密性、完整性和可用性,而任何控制措施都是为了保护这些原则。随着攻击这些原则的技术不断进步,防御也必须变得更加先进。企业可以通过以下方式降低风险:

    • 全面防御策略:企业必须对AI系统进行审查和监控、评估第三方参与的可靠性以及防范各种潜在威胁,包括虚假用户和损坏算法带来的威胁。
    • 负责任的治理和信息披露:网络安全威胁和道德风险需要平衡治理。如果不采取预防性措施,不仅会损害声誉,还会削弱对整个行业的信任。
    • 负责任的AI实践:从开发人员到企业,企业必须在价值链的每个阶段坚定地采取负责任的AI实践,如以人为本的设计方法、数据隐私和安全、透明度和问责制。
    • 符合法规:了解与AI和网络安全相关的最新法规和标准,例如ISO/IEC 27001国家标准与技术研究院(NIST)网络安全框架。确保遵守相关法规,避免法律和监管风险。

    AI的变革力量毋庸置疑。然而,负责任的运作AI需要集体的力量,并在技术进步和道德责任之间取得平衡。只有依托积极稳健的防御和全行业对AI道德实践的承诺,企业和社会才能充分发挥其潜力,同时防范固有风险。