近期,在厦门大学新闻学院举办的“新闻学茶座”中,厦门大学新闻传播学院苏俊斌副教授以“新闻算法伦理权衡的两个尺度”为主题与在场三十多名师生展开了交流讨论。
苏俊斌首先说明了其研究所涉及的几个关键词:“算法”是为了解决特定问题而由专业人士设计的可以被机器执行的计算和决策步骤,“新闻算法”(News Algorithm)则是算法在新闻采集、生产、分发、接收和反馈等诸多实践环节中的应用,其结果是原有新闻工作者的部分职业劳动被机器所替代;“伦理”是关乎先后次序的行为规范,所谓“知所先后,则近道矣”;“权衡”(Trade-off )意味着判断、抉择以实现平衡。接着,苏教授从“研究‘新闻算法伦理权衡’的现实背景”、“作为职业伦理原则的‘客观性’”、“马克思主义实践观的两个尺度”、“研究新闻算法‘把关’所涉伦理问题的纲领”以及“与新闻推荐算法‘把关’有关的阶段性研究成果”等五个方面进行论述。
研究“新闻算法伦理权衡”的现实背景
通过引述搜索引擎和彭博社使用算法的应用实例,苏教授指出算法早已与传统新闻工作者在新闻实践的一些环节展开协同工作。如今,内容产业与计算技术和联网技术的融合已是大势所趋,在此背景下,算法必将更深地嵌入新闻实践。2019年1月25日,习近平总书记带领中共中央政治局在“人民日报社”就全媒体时代和媒体融合发展举行第十二次集体学习时指出,“要探索将人工智能运用在新闻采集、生产、分发、接收、反馈中,全面提高舆论引导能力”。苏教授认为,这一系列的现实背景需要学界和业界思考:传统新闻职业伦理规范在人与机器协同实践的新条件下是否仍然能够指导实践?人工智能的运用为新闻实践带来了怎样的伦理风险?
作为职业伦理原则的“客观性”
“客观性”是苏俊斌讨论“新闻算法伦理权衡”的切入点。针对“客观性”这一哲学命题,苏俊斌首先梳理了Lorraine Daston和Peter Galison在《客观性》著作中对科学史上关于“客观性”三个认识阶段的总结,即“忠于自然(Truth-to-nature)”(17世纪到18世纪)、“机械客观性(Mechanical Objectivity)”(19世纪)和“训练有素的判断(Trained Judgment)”(19世纪末20世纪初)。这些客观性的认识也以某种方式折射到新闻实践中,例如Adolph Ochs于1896年在《纽约时报》的发刊词中所传达的理念就属于朴素的“客观性”观念。然而,这种“客观性”很难实现,个体新闻工作者对该原则的落实也总是存在弹性。也正是在此意义上,算法以其决策步骤的确定性、计算的高效性以及内容分发的精准性,使其在介入新闻实践时具有了一定的正当性。新闻传播领域是否也和自然科学领域一样,会从诉诸朴素的“客观性”理念,转而过渡到依靠算法实现“机械客观性”呢?苏俊斌在《1844年经济学哲学手稿》找到了思考实践的“价值尺度”和“真理尺度”。马克思主义“实践观”对于人们思考人工制品及其隐含的“物的尺度”和“人的尺度”以及“价值尺度”和“真理尺度”提供了指导思想。“新闻算法”相应地需要从“价值尺度”和“真理尺度”来进行权衡。
研究新闻算法“把关”所涉伦理问题的纲领
算法在新闻实践中担当着“把关人”角色,且算法的自动化决策不仅未排除主观性,还引入了新的“机器偏见”。而无论是从算法的设计,还是从其收集数据、训练数据、建模、筛选、分类、预测直至作出最终判断的流程来看,解决算法自动化决策所面临的准确性、客观性、公正性、透明性以及隐私保护等问题,都要求人们打开其“黑箱”进行审视与检验。而面对“怎样打开‘黑箱’”以及“打开‘黑箱’应该看什么”两个问题,苏教授提出了相应的研究纲领。
该研究纲领主要从三个层面展开:在宏观理论层面,对新闻伦理和赛博伦理规范进行分析对比,尝试从中提取出可以思考算法伦理问题的规范性原则。在中观层面,利用调查法总结算法在新闻采集、生产、分发、接收和反馈等诸多新闻实践环节的“把关”作用。在微观层面,对中国、美国和欧洲的新闻算法专利文本进行内容分析。最后,基于微观层面和中观层面的研究,构建应然和实然之间的对话,并尝试为未来人工智能新闻业在自律方面的专业准则以及在他律方面的政策规制提出对策性建议。
打开新闻推荐算法的“黑箱”:把关决策与伦理议题
苏教授认为在那些介入新闻实践的算法中,新闻推荐算法的运用有典型意义且值得深入思考。之后,苏教授介绍了其研究团队的最新成果。他们发现既有之算法伦理研究的知识传统可以被总结为“偏见和歧视”、“隐私与透明度”以及“个体自主性”三个议题。随后,他们从“美国发明专利数据库”和“欧洲专利数据库”中获取了111个新闻推荐算法专利文本,在利用内容分析法分析的基础上,建构了“新闻推荐算法 ‘把关’涉及的 价值要素”框架和“ 各‘把关人 ’在‘把关 ’流程中需要遵守的伦理原则”框架,并在回答“新闻推荐算法‘把关’的过程中还涉及哪些‘把关人’”、“新闻推荐算法‘把关’涉及的价值要素有哪些”以及“多元‘把关人’协作的过程中是否遵循了上述伦理规范”三个问题的基础上,打开了新闻推荐算法的“黑箱”。
他们的主要研究发现认为,算法设计师、媒体工作人员、用户、专家、第三方平台和新闻提供方分别是主导型、辅助型、参与型、咨询型、协作型和先导型“把关人”,六类“把关人”的意志内嵌于新闻推荐算法的“把关”逻辑中,协助算法完成新闻的个性化推送。新闻推荐算法“把关”涉及的价值要素包括“待推荐新闻要素”、“用户特征和行为要素”、“第三方数据”、“推荐系统功能要素”、“专家要素”和“新闻提供方要素”六大类共二十七子类。其中,“新闻特征”和“线上历史足迹”是新闻推荐算法“把关”涉及的基础价值要素,“用户兴趣偏好”是算法作出新闻推荐决策的核心价值要素。在数据收集、处理以及结果呈现阶段,虽然用户的“形式个体自主性”能够在一定程度上得以实现,但“无偏见原则”和“准确性原则”难以践行,“个人信息自决权”难以保障,“真实性原则”被忽略。
最后,苏教授认为新闻从业者的专业技能既有可被算法替代的部分,也有不可被算法替代的部分,在新闻实践中将人工智能置于人的有效控制的需要,更凸显了新闻从业者专业技能在算法时代的重要性。
本次“新闻学茶座”由厦门大学新闻研究所副所长毛章清老师主持,厦门大学新闻研究所所长卓南生教授、厦门大学新闻传播学院许清茂教授、岳淼教授等与会师生还从新闻史的角度对西方报刊的“客观性”观念进行了反思和批判、对技术选择过程中的价值理性和工具理性等问题展开了热烈讨论。