阿茂控管着你的言论自由

支持 Sponsored by  

敦马哈迪的发文被脸书和推特删掉,理由是文中推崇暴力, 违反用户条规。敦马会公开推崇暴力吗? 他针对法国老师被穆斯林青年杀害一事在部落格发言,文中说到“ 穆斯林有权为过去遭屠杀而愤怒,杀害百万法国人。”

但看这么一句,自是非常极端, 但你必然知道敦马不可能只说这么一句, 你若对原文有兴趣可去读读他的部落格,究竟是否推崇暴力, 我觉得不是,但此事读者各有论断。很讽刺的,文章题目是“ 尊重他人”,他的言论却不受尊重,对两家社媒投诉也遭拒, 尊贵如敦马也没办法。

此刻在法国有一位马来西亚印裔作家,名叫皮里达.沙玛拉桑, 得过霍普伍德小说奖。她曾发表英文长文《种族之梯》, 探讨在我国的结构性歧视,我协助她把文章译为华文, 发表在我国媒体。她也常在脸书讨论种族主义课题,不时语带讥讽。 有一天她告诉我,她的账号遭脸书暂时封锁, 理由是她发布仇恨言论。这可能吗?

“犯规”的贴文我看了,其实没有犯规。或者这么说, 它没有违反人类的规矩,但违反了机器的规矩。

很久很久以前(也不过大约十年前),社交媒体是个畅所欲言的园地 ,管制非常宽松。然而当越多人使用,社媒公司的社会责任也越重, 这园地也就发生了变化。2016年脸书直播推出后, 竟出现万万意想不到的用途:直播自杀。人命关天, 脸书不能坐视不理。2017年起, 脸书开始使用人工智慧梳理每个用户的“过去”,给每个人评分, 0是安全,1是可能自杀。若发现高风险用户, 脸书会传送防止自杀资讯给对方,或直接通知官方单位。

社媒被逼要关注的社会议题越来越多,其中一项便是仇恨言论, 舆论一直对社媒公司施压,要求它们设法限制。怎么办呢? 推特一天共有5亿则发文,脸书每日活跃用户有16亿, 要聘用多少人才能有效过滤这些资讯呢? 就算一个人一天能读一万则,也得用50,000人才能看完5亿则推文,这是不可能的任务。 社媒除了借助人工智慧,别无他法。

人工智慧中的一门技术是人工神经网络,以数学计算模型模拟人脑, 让电脑可以“学习”特定领域中的辨别能力。我们来简单说说, 怎样“教育”人工神经网络辨别仇恨言论。“人工神经网络” 这个词很累赘,我姑且给它一个代号,叫“阿茂”。 阿茂就像个出生婴儿,开始时脑袋空空如也。

首先,开发人员需要准备大量范例供阿茂参考,以百万计。 范例何来?可取自过往的社媒发文, 这些发文当中包括用户曾举报过的仇恨言论。 阿茂看过数百万则发文以后,就会从婴儿成长为小孩,“学懂” 仇恨言论的特征,以后再有新的仇恨言论出现,阿茂便能自动辨识、 举报和删除。阿茂很上进,学习不会像人类那样毕业了就停止读书, 他会继续观察新范例,持续学习修正自己。

可是,阿茂毕竟是电脑,是无法像人类那样准确判断语境的。 假设他判断错误,错删了旅法作家或国家前首相的发文,怎办呢? 这就要靠作家或前首相提出抗议,然后就会有工作人员重审原文。 我不知道这些人类的程度有多高?是作家还是国家领导? 他每天要处理千百则投诉,只知道越快close case越好,有杀错没放过 —— 他也只是个高级一点的阿茂罢了。

推特一日5亿条推文,脸书每天16亿用户, 实在不缺一位旅法作家,抑或尊贵前首相的意见。

在阿茂小孩般的人工神经网络面前,在高级阿茂的倦意的眼神当中, 真正实现了人人平等。

今年九月,美国退役军人罗尼.麦纳开枪自杀,过程在脸书直播。 另一个负责监控自杀危机的阿茂,什么也没做到。

延伸阅读:周若鹏专栏《鹏程万理》其他文章


版权声明  本文乃作者观点,不代表《访问》立场;本文乃原创内容,版权属《访问》所有;若转载或引述,请注明出处与链接。
分享文章

您觉得这篇文如何?

评级 4.8 / 5. 评分人数: 11

觉得我们的文章不错的话

请订阅我们的频道

请告知我们可以改进的地方

# # #

周若鹏

专栏作家。著有诗集《相思扑满》、《速读》、《香草》,散文集《突然我是船长》、杂文集《杂乱有章》与《男人这东西》。

我有话说
2 条评论
加入会员追踪您喜欢的作者,
或收藏文章稍后阅读