墨西哥需要对人工智能进行智能监管。这种监管应该在不阻碍的前提下进行保护,在不抑制的前提下划定界限,并理解问题不在于技术的训练方式,而在于其使用方式。监管输入数据就是扼杀人工智能的发展和使用。行政部门旨在改革《联邦劳动法》和《联邦版权法》的举措,其出发点是合法的:保护人们在面对人工智能使用时的个人形象和声音。然而,问题在于其试图实现这一目标的方式。该提案规定,任何图像或声音的使用——包括在“已知或将为人所知”的人工智能系统中的使用——都需要明确授权。但真正造成相关损害的地方是在输出端,即结果:身份盗用、不当的商业开发或对声音和图像的欺骗性使用。监管训练过程是在干预一个难以界定且几乎不可能在不产生严重副作用的情况下进行控制的抽象阶段:不确定性、诉讼风险以及对创新的抑制。相反,监管结果可以将法律干预集中在真正重要的地方:当存在具体损害、可识别的受害者和可惩罚的行为时。在这种情况下,责任不在于技术工具,也不在于使用各种数据训练它的人,而在于滥用技术的人——例如,利用他人的形象或声音进行诽谤。此外,该提案引入了危险的模糊性,例如“发布”概念的范围,并可能将责任转移给开发者,让他们对第三方使用其工具的行为负责,这甚至会对《美墨加协定》等国际承诺构成压力。这一数据不容忽视,尤其是在美国监管趋势走向相反方向的背景下。问题的根源是概念性的。这一表述非但不能提供确定性,反而会引入扩张性监管,最终可能抑制技术发展。美国商会(AmCham México)、拉丁美洲互联网协会(ALAI)和全国电子、电信及信息技术工业商会(CANIETI)警告称,如此宽泛的措辞会在动态的数字环境中产生法律不确定性,并可能影响创新,这并非偶然。我推测,Meta 或谷歌等大型科技公司和平台也会有同样的担忧。监管输出才是真正关键所在。附言:昨天,在蒂华纳自治大学法律学院,举行了我的新书《全面极权主义》的首场发布会。
墨西哥需要智能AI监管
本文分析了墨西哥政府通过控制训练数据来监管人工智能的举措。作者认为这将扼杀创新,并建议应专注于监管技术的应用,而非其训练过程。