网络延迟推动Solana验证者前往南非的商业中心
为了加强其受欢迎的人工智能聊天机器人的安全性,该公司正在求助于外部网络安全和渗透专家,也被称为"红色团队",来寻找人工智能平台上的漏洞。
该公司表示,正在寻找各种领域的专家,包括认知和计算机科学、经济、医疗和网络安全。其目的是提高人工智能模型的安全性和道德性。
在美国联邦贸易委员会发布 调查 公开的数据收集和安全措施,以及 决策者 和 公司 怀疑使用ChatGPT有多安全。
"(这是)众包志愿者跳进来做一些有趣的安保工作," 哈本 共同创始人和西索史蒂文沃尔布罗尔告诉解密。"这是一个建立网络的机会,也是一个站在科技前沿的机会。"
"黑客--最好的黑客--喜欢黑客最新的技术,"沃尔布罗尔补充道。
为了让这桩交易变得更美好,他说红队成员将得到补偿,而不需要与AI有任何经验--只是愿意贡献不同的观点。
"我们宣布了一个公开呼吁,并邀请有意提高该公司模型安全性的领域专家加入我们的努力。" 写的 ."我们正在寻找来自不同领域的专家,与我们合作,对人工智能模型进行严格的评估和红配。"
红队 指的是网络安全专业人员,他们是攻击方面的专家--也被称为渗透测试或测试--系统和暴露漏洞。相比之下,蓝色团队描述的是保护系统不受攻击的网络安全专业人员。
"除了加入这个网络,还有其他的协作机会来为人工智能的安全做出贡献。"例如,一种选择是建立或进行人工智能系统的安全评估并分析结果。"
开放赛于2015年启动,去年年底随着ChatGPT和更先进的GTP-4的公开发布,进入了公众视野。 生成的人工智能 变成主流。
7月,公开赛与谷歌、微软和其他公司一起承诺致力于开发 安全可靠 人工智能工具。
虽然像Tg-1这样的人工智能工具革命性地改变了人们创造内容和消费信息的方式,但人工智能聊天机器人也并非没有争议,引起了偏见, 种族主义 , lying ( 使产生幻觉 ),而且在用户数据的存储方式和存储地点方面缺乏透明度。
对用户隐私的担忧导致了一些国家,包括 意大利 俄罗斯、中国、朝鲜、古巴、伊朗和叙利亚禁止在其境内使用Tg-1。作为回应,该网站更新了Tg-2,以包含删除聊天记录 功能 以提高用户隐私。
红队计划是由公开赛吸引顶级安全专业人员帮助评估其技术的最新行动。今年6月,公开承诺 $1 million 促进使用人工智能的网络安全措施和倡议。
虽然该公司表示,研究人员不受限制发表他们的研究结果或寻求其他机会,但该公司指出,该项目的成员应当意识到,参与红色合作项目和其他项目往往须遵守保密协议,或"必须无限期保密"。"
"在评估人工智能系统时,我们鼓励创造性和实验性的做法。"一旦完成,我们欢迎您将您的评价贡献到开源的排除回购供更广泛的AI社区使用。"
免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。本站资讯仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。
industry-frontier