Skip to main content

人工智能风险要认清 消费权益齐把关

人工智能风险要认清  消费权益齐把关

人工智能近年发展蓬勃,生成式人工智能(generative AI)更应运而生,为普罗大众的生活带来了不少便利和改变。纵使生成式人工智能的应用十分广泛,惟生成内容欠准确、监管未臻完善,甚至被不法分子滥用等各种隐患,均可损害消费者利益,问题不容小觑。为响应国际消费者权益日的主题「对消费者公平负责任的人工智能」(Fair and Responsible AI for Consumers),本文将阐述生成式人工智能的潜在风险和提供相关建议,以供消费者参考。

建议措施

制定政策监管人工智能 

欧盟于去年12月就《人工智能法案》(Artificial Intelligence Act)达成协议,将推出全球首个监管人工智能的法案,旨在减低人工智能对人权造成的负面影响。该法案会按照人工智能工具的风险评级而实施相应的监管措施,潜在风险愈高,监管愈严格。在该分级下,明显会威胁基本人权的系统(包括但不限于对个人进行社会信用评分,或是利用个人的政治取向、宗教信仰、性取向、种族等进行分类)将被严禁。至于通用人工智能(general-purpose AI,例如是生成式人工智能),开发有关技术的科技公司须提升透明度,包括草拟技术文件、遵守欧盟版权法,以及披露开发人工智能时所使用的训练数据的概要。中国内地方面,国家互联网信息办公室等7个部门亦于去年联合公布和实施《生成式人工智能服务管理暂行办法》,以促进生成式人工智能的发展和规范应用。该办法提到,提供和使用生成式人工智能服务时,应当遵守法律、行政法规、尊重社会公德和伦理道德,同时订明了处理训练数据、数据标注,以及不得生成虚假内容等要求。

 

除了欧盟与中国内地,美国、英国、新加坡等地亦已经或即将开展研究工作,订立监管人工智能的框架。在香港,个人资料私隐专员公署于2021年8月发布《开发及使用人工智能道德标准指引》,协助机构在开发及使用人工智能时,明白并遵从《个人资料(私隐)条例》的相关规定。此外,特区政府在去年12月发布的《香港促进数据流通及保障数据安全的政策宣言》,提出与人工智能有关的政策措施包括:委托本地研发中心及专家,就生成式人工智能技术及应用的准确性、责任、资讯保安等范畴,研究及建议适当的规则和指引;研究修订《个人资料(私隐)条例》,加强对个人资料的保障及应对网络科技挑战;及探讨完善《版权条例》对人工智能技术发展所提供的保障,并在今年进行谘询。与此同时,本港可参考外地做法,考虑如何就人工智能发展和应用等层面加强指引或制订相关监管框架,以应对人工智能科技急速发展而对社会带来的潜在影响和冲击,以及提升对消费者利益和福祉的保障,并使消费者与科技公司之间的关系更为平等。

推动人工智能教育

除了上述建议外,政府亦应继续推动教育,使市民更深入了解人工智能背后的运作方式和相关隐患。不论监管框架严谨与否,本会认为消费者也可先从自身出发,采取措施尽量降低人工智能带来的风险,包括:

 

  • 检查可否关闭聊天机械人的聊天纪录功能,预防对话内容被用于训练用途;
  • 避免与聊天机械人分享敏感资讯,并考虑使用昵称或假名,以防个人资料外泄;
  • 紧记生成式人工智能所产生的内容是基于其训练数据而得出,当中可能存有偏见或与事实有偏差,不应盲目信任有关技术;
  • 接纳和使用人工智能生成的内容前,应先查核是否与事实相符,尤其是有关内容与法律、医疗,或财务相关;及
  • 深伪技术可生成像真度高的声音和影像,因此若收到声称是亲友的来电或视像通话要求金钱援助,应紧记先致电核实有关情况。

 

此外,在人工智能迅速发展的趋势下,提升弱势社群的资讯科技知识(IT literacy)亦是当务之急。长者和智能有障碍的人士较可能对人工智能或深度伪造技术等概念缺乏了解而更易受骗,故此有必要重点加强对相关人士的教育。同时,人工智能将改变人们的日常生活和商家的营运模式,假如弱势社群因缺乏资讯科技知识而被社会遗下,将会扩大数码鸿沟(digital gap)并加剧社会不平等现象。事实上,政府早于2014年推出了「长者数码外展计划」,委托非牟利长者服务机构举办不同活动让长者体验数码生活;并在2019年相继推出「长者进阶数码培训计划」及「乐龄IT易学站」,为具备基本数码科技知识的长者提供免费培训课程和网上学习平台,加强他们对数码科技和技巧的认识。政府在今年的财政预算案亦宣布拨款1亿元,在未来三年为全港60岁或以上的长者,提供数码培训课程和技术支援的项目,让他们更容易融入数码时代,得到数码科技带来的好处。本会建议政府继续投放资源,以至善用人工智能带来的便利和普及性,针对弱势社群的资讯科技教育,解决有关人士在使用科技时遇到的技术疑难。

改善人工智能的透明度和责任制度

要提升人工智能的透明度,科技公司应披露更多相关的政策和措施,并采取行动减低人工智能所带来的风险,当中包括发布风险评估和内容审核等技术文件,以及考虑公开部分程式码,供专家、学者、社会大众等外部人士进一步了解和监察人工智能系统的运作。科技公司亦应尽量使用较客观中立的内容作训练用途,并确切披露其用于训练人工智能模型的数据来源,让第三方有机会指出和订正数据中存在的偏见和错漏,同时引入人为监督,检查人工智能生成的内容是否准确。此举有助消除生成内容中的错误或欠持平的资讯,提升人工智能应用方面的公平性和可信性。

 

再者,科技公司宜研究把人工智能生成的图像与内容另作标示,以打击不法分子和不良商家利用人工智能作诈骗和剥削的行径之余,同时提醒和方便用户再作查证,使消费者在必要时能更有效地评估和判断是否接纳及使用该些内容。科技公司亦应增设机制以解决因使用人工智能而带来的争议,例如倘若用户因为人工智能的缺陷以致利益受损,也可按照科技公司的补救方案获得赔偿。此做法不但可展示科技公司乐于承担应有责任,亦可强化消费者与有关公司之间的互信,对双方有利。

 

建议措施