大家好,欢迎来到IT知识分享网。
在今年的两会提案中,全国政协常委甄贞认为,一些网络社交平台成为宣扬网络暴力、传播色情信息、实施网络诈骗的温床,对未成年人的成长造成极大的负面影响,因此她建议落实平台责任。
全球社交平台已经形成较为清晰的格局,以中国地区的“两微一抖”(微信、微博、抖音)、欧美地区的脸书(Facebook)、推特(Twitter)等为代表的社交平台,已经覆盖全球绝大部份网络用户。这些平台上的任何言论都有可能吸引大量模仿者、追随者,进而可能成为滋生违法犯罪的温床,而受害者往往不仅仅是未成年人。
说到底,上述问题的核心就是在线内容该如何有效监管。而解决问题的关键首先在于落实平台责任。这已是一个全球性议题。
平台责任的真正落实,需要两个条件。一是法治,通过立法厘清责任、规范运营。二是平台自治,即科技公司要有自我监管的意愿与执行力。
以全球最大的社交网络平台脸书为例,随着规模的扩大,脸书逐渐向公共论坛的方向发展。近年来,脸书在线内容中出现了不少有害信息;新冠肺炎疫情期间,也冒出了海量的疫情阴谋论、虚假治疗方法等信息。以前,这些有害信息是分散性的、地区性的,而今,由于一场全球性的疫情,脸书在内容监管方面的短板充分暴露了出来。
造成这种现状的原因,一是审核有漏洞,二是社交平台责任不明晰。科技公司倾向于主张自身只是平台提供者,不对具体内容负责。面对铺天盖地的批评,脸书首席执行官马克·扎克伯格终于答应承担部分责任,但他认为必须有一个清晰的监管框架。
法治方面,欧盟正在加紧制订的《数字服务法案》(Digital Services Act),这将成为平台责任履行的法律依据。该法案将对大型科技公司进行责任界定,甚至还可能将其视作公共事业来管理。
自治方面,脸书在今年5月初正式公布了“监督委员会”的首批20位成员名单,这些成员在组织架构上独立于脸书公司,并将对脸书在线内容进行高级别的监管。此外,内容的AI审核和人工审核机制如何优化,如何避免类似于“误删真新闻”这样的乌龙,脸书也在持续解决这些问题。
我国社交平台内容监管也面临类似的状况,同样需要法治与平台自治相洽共行。其中,如何合情合理、宽严适度地界定平台责任,对我国这样一个发展中经济体尤为重要。如果将所有责任交予平台,是否会导致平台因寻求自身安全“宁可错杀一千,不可放过一个”,从而影响平台活跃性?如果对平台约束过多,是否会限制科技进步和企业创新?这都是需要立法者慎重思考的问题。
在数字时代,科技公司规模越大,其公共属性就越强,社会责任也越重。科技公司应首先具备“科技向善”的意识,主动担责,勇于进化,不能一味被动等待法律出台。如果任由有害信息发展而不加改进,就会对社会造成危害,最终殃及企业自身。所谓“长恶不悛,从自及也。”
更多内容请下载21财经APP
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/182582.html