当前位置:首页 > 经验分享 > 正文

生产力专员斯蒂芬·金(Stephen King)表示,人工智能不应被过分热心的规定扼杀

  

  

  生产力委员会(Productivity Commission)表示,政策制定者应避免过度监管,以保护自己免受人工智能带来的潜在危害,因为现有规则在很大程度上已经足够,而人工智能带来的好处很容易被扼杀。

  在三篇新的研究论文中,欧盟委员会指出,目前还没有证据表明人工智能推动了企业生产率的提高,但引用的研究表明,任何好处都可能需要20年或更长时间才能在宏观统计数据中体现出来。

  这些文件呼吁制定一项全面的国家数据战略,以实现全经济范围的数据共享,并开发人工智能机器人可以学习的本地数据集。

  但它警告不要过度监管,而是呼吁采取“循序渐进的监管方式,专注于在危害出现时加以解决”。

  “使用人工智能可能造成的许多潜在危害是‘新瓶装旧酒’——我们以前遇到过的危害,现有的法律法规已经充分解决了这些危害。”

  与此形成对比的是,监管机构一直呼吁制定具体的法律和强制性法规,以应对深度造假、数字诈骗、生物识别隐私滥用以及高风险的医疗、交通和金融应用。

  作为对机器人债务皇家委员会的正式回应的一部分,政府已承诺履行立法义务,解释算法和人工智能是如何工作的,根据新的透明度法,这些法律将涵盖所有联邦机构。

  政府上月发布了一项针对人工智能监管的宽松政策,但将努力制定自愿性标准,如果需要,还将制定针对高风险活动的强制性规则。

  “澳大利亚健全的监管框架是我们最大的优势之一,”专员斯蒂芬·金(Stephen King)声称。

  “这项规定已经涵盖了人工智能技术的许多用途。在制定新的人工智能相关法律之前,我们应该检查现有的法规,并更好地解释它们如何适用于人工智能的使用,”莫纳什大学经济学教授说。

  “人工智能可能会凸显出我们需要解决的现行法律法规的漏洞。但是,通过过度狂热的立法来预防这些差距,可能会使地方政策与全球规范脱节,限制这种新技术的潜在生产力提高。”

  在他与他人共同撰写的研究论文中,金教授还警告称,“政府‘赞助’人工智能价值链的某些环节并不积极”。

  “全球市场很可能集中在硬件、云服务和开发先进的机器学习模型上。澳大利亚的政策或监管不太可能影响这一市场结果。”

  欧盟委员会表示,相对于一个虚构的“完美世界”,衡量使用人工智能带来的风险具有误导性。

  “例如,自动驾驶汽车算法的风险应该根据一个安全的、有执照的人类驾驶员的反事实来评估,而不是根据一个零交通事故死亡的虚构世界来评估。”

  抵制立法保护的呼吁与政府对公民的调查形成鲜明对比,调查显示,社区对人工智能的使用存在深刻的不信任。在另一项调查中,90%的受访者希望政府加强控制,防止个人数据被滥用。

  关于制定国家数据战略的必要性,PC表示,使用澳大利亚数据“将增加人工智能应用的相关性和基础,以满足我们的需求”。

  该委员会指出,在数据可用性、数据可访问性和政府对数据再利用的支持方面,澳大利亚是经合组织中表现最差的国家之一(排名29)。

  “国家战略可以为访问和使用在澳大利亚收集的所有数据制定一致的意图,澄清数据主体、策展人和用户的权利,从而为人工智能的使用和发展提供安全的基础。”

有话要说...