日本政府计划推出人工智能(AI)指导方针,以削减与技术滥用相关的偏见和不良行为。然而,与其他国家不同,这些指导方针将仅供参考,不具备法律约束力。相较之下,欧盟正在制定详细规则,而美国的一些顶级人工智能公司已承诺负责任地开发技术,并在白宫的指导下积极推动管理人工智能使用的行政命令。
日本政府的方法是通过为企业提供指导方针来鼓励其在人工智能的开发和使用过程中考虑道德和法律问题。这些企业将可以获得政府认证,以证明它们遵循了规范。此外,政府还计划要求企业在竞标政府合同时遵循这些指导方针,从而进一步推动其采用。
与欧美不同,日本政府的态度与其面临的人口老龄化问题息息相关。人工智能被视为解决劳动力短缺和医疗保健挑战的一种途径。日本政府还强调,对于人工智能训练中使用的数据,不会实施版权保护,这反映出其明确的立场。
为了制定具体的指导方针,日本经济产业省等部门将与约100名专家合作。这些指导方针将分为两部分:第一部分适用于所有企业,强调遵循法律和人权原则,以及建立内部风险管理结构。第二部分则针对五类企业制定了具体规则,包括开发基础模型的企业、进行数据训练的企业、系统开发商、服务提供商和使用人工智能服务的企业。
要求企业透明披露其人工智能项目的功能、目的和风险,以及用于训练的数据类型。初始数据的透明性对于保持人工智能程序的公正和准确性至关重要。此外,外部审计也将用于确保企业的透明度。
总之,日本政府的AI指导方针旨在鼓励企业在人工智能领域的发展中考虑道德和法律,尽管与其他国家的方法存在差异,但它在解决国内问题上持积极态度。
作品采用:
《
署名-非商业性使用-相同方式共享 4.0 国际 (CC BY-NC-SA 4.0)
》许可协议授权