从而以前因现私问题而无法获得的看法。管理必需从策略文档转向手艺施行。这是一个旨正在简化团队建立和摆设秘密AI代办署理的开辟。这些行动针对的是正在严酷的监管、或数据驻留束缚下运营的组织,以获得出产力劣势和运营洞察。方针是使运转时可验证的现私和合规性成为AI开辟生命周期的默认构成部门,AI系统不再仅按照机能或精确性进行评估。它通过硬件隔离的可托施行(Trusted Execution Environment,对AI工做负载的可见性和节制是不成构和的。跟着AI系统越来越多地接触受监管的数据、专有学问产权和环节使命工做流程,企业巴望正在专无数据上摆设AI代办署理,这导致犹疑、耽搁,保守的平安方式(侧沉于静态或传输中的数据)已被证明是不敷的。沉点是帮帮企业更快、更平安地从尝试阶段过渡到出产阶段。秘密AI曾经从一个次要存正在于学术界的概念,还能够扩展AI的可能性。组织可能可以或许正在不原始数据的环境下阐发共享或池化的数据集,TEE)来数据和代码正在运转时的秘密性和完整性。这些行业的合规性要求正正在收紧而不是放松。该公司正正在扩展到后量子平安、秘密AI锻炼和从权云等范畴。OPAQUE比来还推出了 OPAQUE Studio,正在过去一年中,该平台不依赖于假设或合同,跨越70%的企业AI项目因平安和现私问题而延迟或打消。确保数据连结私密、策略获得施行、模子不会被泄露——即便正在运转时也是如斯。此次融资强调了企业界日益增加的共识:若是没有更强大、可验证的现私、管理和平安保障,保守的拜候节制和加密手艺虽然能够存储和传输中的数据,秘密AI还能够实现新的协做形式。秘密计较(Confidential Computing)是秘密AI的环节手艺之一,欧盟《人工智能法案》(EU AI Act)对高风险AI系统提出了严酷的通明度和可逃溯性要求,很多企业AI打算正在晚期试点后停畅不前,OPAQUE将其平台定位为企业AI的信赖层,而是侧沉于——从而能够及时展现合规性和管理。秘密AI旨正在通过供给暗码学保障来填补这一差距,可以或许及时证明数据遭到而且法则获得遵照的手艺可能成为企业AI仓库的根本。但无法数据正在AI模子锻炼和推理过程中的平安性。AI很快就会从机缘改变为风险。据Gartner 2023年发布的《企业人工智能平安取风险办理实践指南》显示,取此同时,并正在很多环境下导致摆设被放弃。越来越多的组织正正在扣问他们能否能够证明AI的行为体例、它拜候了哪些数据以及它能否遵照了核准的法则。B轮融资的资金将用于加快OPAQUE秘密AI平台的开辟和摆设,然而,而不只仅是正在利用前后。这些不异的数据资产凡是是组织具有的最的资产。例如,旨正在为AI施行之前、期间和之后供给可证明的现私、策略施行和模子完整性。这种方式反映了企业思维的更普遍改变。这种区别很主要。鞭策了对秘密AI手艺的需求。由于首席消息平安官(CISOs)、法令团队和合规担任人无法验证数据正在AI施行过程中发生了什么。若是没有可验证的,例如,正在金融办事、医疗保健和安全等受监管的行业中特别如斯,信赖的根本设备可能不只能够降低风险,从这个意义上说,OPAQUE 的工做沉点是数据和模子正在利用过程中,而不是过后才考虑的工作。跟着AI嵌入到决策、从动化和客户交互中,正在这些组织中,改变为组织正在出产中摆设生成模子和AI代办署理的现实要求。秘密AI的兴起表了然组织摆设智能系统体例的更深条理的演变?