Skip to main content

人工智能风险要认清 消费权益齐把关

人工智能风险要认清  消费权益齐把关

人工智能近年发展蓬勃,生成式人工智能(generative AI)更应运而生,为普罗大众的生活带来了不少便利和改变。纵使生成式人工智能的应用十分广泛,惟生成内容欠准确、监管未臻完善,甚至被不法分子滥用等各种隐患,均可损害消费者利益,问题不容小觑。为响应国际消费者权益日的主题「对消费者公平负责任的人工智能」(Fair and Responsible AI for Consumers),本文将阐述生成式人工智能的潜在风险和提供相关建议,以供消费者参考。

人工智能带来的隐忧

生成式人工智能的冒起诚然可为消费者和商家带来庞大机遇。然而,其衍生的潜在风险亦为世界各地的消费者保障组织所忧虑。国际消费者协会(Consumers International)于去年12月的全球大会中也研究与探讨了有关议题。

生成内容或欠准确及存在偏见  

正如上文提到,生成式人工智能利用大量数据作训练用途,学习该些数据背后的模式和规律。若然训练数据本身就存在文化或政治上的偏见,或与客观事实有偏差,该人工智能系统便有机会吸收了欠准确或不持平的资讯,继而生成错误的内容并使当中的偏见延续下去,误导消费者。假如消费者选择透过人工智能征询理财或健康方面的意见,同时不假思索全数接纳存有偏差的内容,后果堪虞。

 

此外,人工智能在生成内容时也有可能编造事实,该现象又称为「人工智能幻觉」(AI hallucination)。外国曾有一名资深律师借助生成式人工智能搜集资料,及后向法庭呈交了由人工智能虚构的案例而又未有察觉,最后因引用了虚假的司法判决而受到惩处。上述例子印证了人工智能所产生的内容如幻似真,故此消费者面对不同的生成内容时应小心查证。

滥用风险 

有海外研究指出,在分辨由人类撰写或是由人工智能生成的文章时,能把两者区分出来的准确率仅有50%至52%,机率与「掷公字」无异。由于人工智能生成的内容条理井然且看似可信,有关科技亦易被滥用和助长欺诈行为,对消费者构成风险。举例说,以往的钓鱼(phishing)电邮或网站文法和拼字错漏百出,人们易于察觉当中端倪而避免上当。惟生成式人工智能冒起后,不法分子可用其撰写钓鱼内容以减少过往的文法弊病,使诈骗讯息更难被侦测,令消费者和商家更易受骗。再者,生成式人工智能亦被发现用于编写和散播更具说服力的假评(fake reviews)和似是而非的假消息(misinformation),明显损害了大众接收准确和真实资讯的权利。

 

犯罪分子除了利用文字作诈骗外,近年亦会借助人工智能和深伪技术(deepfake)生成图像、影像以及声音,以模仿他人身分的方式向受害人的亲友敲诈和骗取金钱。本港今年年初就有骗徒利用深伪技术假冒跨国公司高层,要求员工出席多人视像会议并按指示进行转帐交易,最终骗取合共2亿港元。事实上,外国有多名人工智能专家与业界高层亦于近日签署公开信,铺陈深伪技术的潜在危害,并呼吁采取防范措施及加强监管。

私隐与侵权问题

部分生成式人工智能的训练数据或源自社交媒体和搜寻引擎,故此网民的公开贴文、个人资料、相片等有可能在未经授权和不知情的情况下被纳入到训练素材之中,这不但有违私隐及道德标准,做法也显然不公平。另外,在使用具备人工智能技术的聊天机械人时,用户的对话纪录或会被储存及作训练用途;假如使用过程中不慎透露了敏感讯息,要求移除有关内容的难度极高。消费者若然对人工智能未有太多理解,敏感资料可因而外泄。

 

另外,近年亦有海外报社、作家、艺术家等入禀法院,指控科技公司在研发和训练生成式人工智能时,于未经许可的情况下擅用受版权保护的文章或作品,构成了侵权行为。至于以人工智能生成和创作的文艺作品,则或会引起其著作权由谁拥有等争议,因此消费者在使用上述内容前宜先详加考虑有关法律问题。

欠缺透明度与责任制度

科技公司在开发生成式人工智能时,往往以保安原因和市场竞争为由,拒绝开放其系统予外部审查。在缺乏相关资讯的情况下,不但难以得知该人工智能的实际运作方式,更无法判断训练数据从何而来或是如何组成,遑论如何核实相关数据是否存有偏见或与事实有否偏差。除此以外,人工智能在生成内容时并无提供资料来源,做法不利用户查核资料是否虚构。倘若消费者因接收了人工智能生成的错误资讯而蒙受损失,责任谁属等问题亦相当复杂,受害人将更难辨认与追究涉事一方,凡此种种都损害了消费者的自身权益。

 

透明度不足同时可使商家更易以不公平的方式应用人工智能,譬如过度收集个人资料作营销分析,甚至滥用相关科技以剥削消费者自主地作出选择的权利。假如消费者未有察觉此等行径并盲目信任人工智能,或会因而作出错误抉择,对消费者同样不利。