合作机构:阿里云 / 腾讯云 / 亚马逊云 / DreamHost / NameSilo / INWX / GODADDY / 百度统计
Thales的全球副总裁Ashvin Kamaraju深入探讨了人们对AI风险的日益担忧,随着企业拥抱AI,他解释了最大的风险,并概述了领导者保护其AI生态系统的战略方法。
广泛可用的GenAI平台和工具的兴起,促使企业的决策者评估该技术在其堆栈中的哪些地方可以被利用来增强运营。根据GitHub的调查,92%的开发人员已经在使用AI编码工具,这些平台正在成为企业中一切的基础——从流程到解决方案和思维方式。
对增加AI使用率的日益关注,引发了围绕这项技术的潜在风险的讨论。尽管如此,随着它变得更加普遍,一个更令人担忧的因素必须被考虑:对AI的风险。
AI在企业中的广泛使用是一个日益增长的趋势,这意味着除非得到适当的解决,否则AI面临的风险将持续存在。实施这些AI系统的企业应该负责任地这样做,纳入安全行业指导,并将这些系统纳入威胁格局。
那么,企业如何才能撑起AI责任的尽头呢?通过确定适当的AI业务用例来领先于威胁,这些使用案例包括:
在所有技术中,该行业在塑造未来使用方面发挥着关键作用。几乎在一夜之间,AI变得迅速普及,其进步也同样迅速。美国有开发更负责任的AI的需求,但缺乏明确的法规,对那些不太熟悉这项技术的人来说,几乎没有什么清晰的东西。
随着AI继续渗透到工作场所,企业面临着快速、安全地部署基于AI的系统以满足新需求,同时避免将自己暴露在不断扩大的威胁矢量中的巨大负担,这一巨大的重量并不是企业本身可以承受的,因此制定法规、提供指导和框架对工作场所AI的未来至关重要。
拜登政府发布的AI行政命令有助于为AI的安全和安保建立新的标准。白宫最近的努力也推动了领先的AI公司承诺推动安全、可靠的AI发展,这将进一步提高实施这些公司解决方案的企业对AI的使用。尽管取得了进展,但监管需要时间才能充分发挥作用,AI的进步也不会因为等待政策实施而放缓。
幸运的是,现有的框架、指导和资源可供企业在等待更严格的法规时确保适当的业务使用和AI的实现。例如,美国国家标准与技术研究院(NIST)推出了NIST AI风险管理框架,这个框架旨在更好地管理与AI相关的个人、企业和社会的风险。
在过去的一年里,我们看到了AI发展的如此之快。随着我们等待对提供更多定义流程的技术的进一步监管,企业应该求助于像NIST这样的现有框架来最好地装备自己。
为了成功地使用AI,很明显,企业需要转变心态,专注于这项技术的风险。通过将资源放在保护AI的背后,并呼吁商业领袖、监管机构和行业专家的合作,可以清楚地看到一条从AI创新中受益的更安全的未来。
TOP