一个新的数字交互时代正在展开。在这个时代中,AI代理能够在网络上进行交易、导航和模仿人类行为,这迫使安全团队必须重新思考如何实时建立、执行和管理信任机制。
近期,人工智能领域已从生成式AI快速发展到自主AI(Agentic AI)。这些系统不再仅仅是分析或生成内容的工具,而是能够自主设定目标、做出决策并执行任务的智能体。尽管这些系统提供了更高效的自动化能力,但同时也带来了前所未有的安全风险,挑战着现有的在线信任基础。
HUMAN Security公司首席执行官斯图·所罗门(Stu Solomon)指出,互联网已不再由人类主导。机器人、爬虫和AI代理的在线活动量已超过人类,且这一趋势正在加速发展。这种根本性转变要求我们重新定义信任机制和数字生态系统保护方式。
自主AI已经开始与各类数字平台进行交互,包括网站、移动应用和API接口。它们不仅能进行购物和数据采集,还能模仿真实用户行为。传统的安全防御措施主要针对登录和支付环节的机器人检测,难以应对能够自主进化、适应和行动的智能代理。
HUMAN Security推出了以自适应信任为核心的新安全模型。该模型通过HUMAN Sightline平台实现,并配备了新的AgenticTrust技术层。系统能够持续评估行为上下文,对人类、机器人和AI代理的活动进行实时决策。
AgenticTrust采用创新的运作方式,通过分析点击频率、导航模式、行为异常和会话一致性等多维度数据,评估行为主体的意图。这种"信任但验证"的模式更适合复杂的AI交互环境。
HUMAN Security近期开源了HUMAN Verified AI Agent协议,这是一项使用公钥加密和HTTP消息签名来验证AI代理身份的技术标准。这一举措旨在构建更负责任的互联网环境,使AI代理能够进行可靠的身份认证。
互联网虽然不再是人类独享,但通过建立正确的信任架构,仍可保持以人为本的特性。自主AI或将改变互联网的运作方式,而自适应信任机制将决定互联网能否继续服务于人类需求。