根据全面的新安全措施,澳洲人将免受人工智能高风险使用的影响,如在招聘、解雇、公共场合的面部识别或虚假信息等方面。联邦政府上周四公布一项新人工智能自愿标准,旨在提高澳人对这一新兴技术的信任度。
工业和科学部长Ed Husic表示,澳人理解人工智能可能是有用的,但担心技术出错的风险。
他说:“我们已经清楚地意识到了这一点。”“我们认为,我们正在发布的标准有助于建立信任,同时也向那些不安全使用技术的人士发出严肃信号:后果将不堪设想。”
据《每日电讯报》报导,Husic说,如果人们不信任人工智能,他们就不会使用人工智能,那么企业就不会从技术进步中获益。
他表示:“人工智能使用方面的风险是严重的,例如,如果人工智能用于招聘和解雇员工,人工智能用于儿童,在公共场所识别面部,这些都是我们认为需要处理的严重问题。”
澳洲政府还将发布十项新强制性防护措施,并在实施前进行为期四周的短暂咨询。其中包括要求公司测试人工智能模型、制定风险管理计划,以及要求对高风险模型进行一定程度的人工监督。
他说,虽然有关强制性措施的工作正在进行中,但他希望企业抓住时机,采用自愿标准。“这样可以向他们展示如何更好地应对与人工智能相关的风险,我们强烈鼓励他们遵循这一标准。”
版权声明:
本文由看新闻网原创、编译或首发,并保留版权。转载必须保持文本完整,声明文章出自看新闻网并包含原文标题及链接。