文|吴殿义 陈苏城 龙思薇 周艳
编者按:
“智能”媒体离不开算法,这已经是当下的共识,如谷歌、字节等巨头的崛起也正印证了算法的重要性。面对海量的内容、触点、用户,以及千差万别的内容生产者、广告投放者等,驾驭如此繁复的生态,媒体确实需要借助算法实现自动化、智能化运营。在此次的封面文章中,我们将算法视为媒体运行的“大脑”正是出于这样的考量。对于人体来说,任何资源调度都离不开大脑,任何的创造活动也都由大脑作为中枢,媒体运行亦不例外。这似乎已经是老生常谈了。
然而作为从数学、计算机等学科逐渐进入到传媒领域的一个术语,“算法”在今天的媒体领域,其概念其实颇为不清晰,虽然众多的讨论都围绕着算法的价值、问题,究竟什么是算法?什么是媒体运行中核心的算法?算法应该如何构建,才能够支持智能媒体的健康发展?必须厘清这些问题,再去讨论算法落地、大脑架构,才能够有的放矢。因此,笔者试在下文中回答上述问题。
理解和建构“媒体”的“算法”,就需要同时理解“媒体”当下的格局和特征,以及“算法”的结构和特点。缺少媒体视角,就会陷入纯粹算法的数理逻辑;而缺少算法视角,则又可能造成对智能的空想和美化。我们要进入的,是媒体与算法相交融的新世界。
算法并非单一解决内容分发,而是融入巨人生态的每一环节
在媒体领域,算法的价值是什么,提到这个问题大多数人的第一反应是提升内容分发的效率。然而在媒体已经进入平台化发展的当下,算法的价值远远不只是对于用户端的体验提升,而是对于整个平台各方的“控制”。
平台机制下对于效率的要求是算法进入媒体场景的根本驱动力。在媒体融合时代必须由平台型媒体去满足用户海量的信息需求,而媒体平台基于用户的信息与需求吸引了多边角色共建生态,包括内容创作者、MCN机构、广告主、营销服务商等。平台既要信息与最终用户的高效匹配,更要完成在各角色之间的信息、服务、资源的高效匹配,且这两层匹配又相互关联。如此复杂的生态运行,单靠人的计算能力无法达到,必须算法介入。在这个过程中,算法服务的不仅是核心层的内容生产者与需求者,也包括外围的各类B端角色。
一方面,算法可以更好地实现对B端参与者的吸纳和赋能,从而确保平台能够拥有源源不断的优质资源;另一方面,算法则还可以更进一步建构起新的商业模式,支撑媒体平台对外输出自身的技术能力。换言之,算法所具有的是驱动平台、重构生态的价值,已经成为了媒体发展生存的核心关键,而非简单的提升内容分发效率这么简单。“得算法者得天下”这句话过于武断,但的确算法更优者,更能够吸纳各方的参与,并在内容生态之间的竞争和碰撞中,占据更加优越的位置。
字节对于整个媒体格局的颠覆作用,已经足以印证这种影响力了。对字节和整个媒体产业而言,算法只是提升了用户体验吗?算法其实是融入到了各个环节,并重新构造了整个内容创造、广告投放的生态格局。
而Google AI团队通过对数据的挖掘以及人工智能的研究,构建了谷歌的基本智能——自然语言处理、文字识别、语音识别、图像识别、知识图谱等,研究成果包括大名鼎鼎的开源机器学习平台TensorFlow,以及横扫11项NLP纪录的自然语言处理模型BERT。在这些智能技术与数据的支持之下,谷歌不仅可以全面地理解用户,也可以更深入地理解内容。这种理解能力一方面帮助谷歌更好地实现内容的分发与审核,另一方面则以工具的形式提供给内容伙伴和广告客户。在DV360中,则表现为计划、预测、出价、合并受众、相似的受众、广告画布、调音台、动态规则、搜索、过滤、即时报告、品牌提升、AB测试等一系列工具,帮助广告客户更加简单、更加智能地进行广告购买。举例来说,谷歌的机器学习技术帮助其实现强大的自动出价功能,根据对人群包的新近程度、所要投放的广告素材、当前时间等40余种指标预测曝光效果,从而自动调整出价。谷歌的数据和算法则使得DV360可以按照人口统计特征、兴趣爱好、人生大事、购买意向、地理区域、指定日期等数百种方式 定位受众群体,也可以方便地合并、排除或者扩展人群包。
总之,传媒巨人的算法“大脑”一定是融入巨人的各个环节,并且算法与媒体生态形成一种正向循环,算法越强则生态越优,生态中的参与者越多,会更进一步激发平台的算法能力。
谷歌DeepMind实验室官网
(图片来源:DeepMind实验室官网)
字节跳动—火山引擎官网
(图片来源:火山引擎官网)
算法并非只求“即时效率”,还需解决“价值”问题
当算法渗透进入整个传媒生态的各个环节,一个高效运行、密切配合、快速发展的传媒巨人就此诞生。巨人之产生,在于它通过各种算法的巧妙应用,实现了对于资源和信息的控制。放置于整个媒体发展的历史进程来看,算法的出现和应用是必然、必须的,也有其意义。但算法对于控制、匹配的追求,在一定程度上带来了缺少方向感的狂奔,看似每一步骤精准控制,其实一方面可能追求到的是片面的、狭义的“效率”,另一方面也失去了对于核心“价值”的把控。
首先,从媒体生态运行的视角,所谓“效率”必须是生态各方均基于自身的贡献、获得应有的收益,内容生产方的作品质量、生产能力,广告投放者的核心诉求、品牌基调,用户的需求满足、兴趣拓展,应构成全面而健康的互动,但当下的效率,一般还是以用户的即时且未必全面的反馈为基础,结合算法对于内容的不够立体的理解而进行,所实现的“效率”其实在于放大了用户的某部分更为强烈、更为容易满足的需求,更进一步对上下游各环节造成影响,是一种狭义的即时效率。在这样的算法逻辑下,内容生产者未必得到真正的尊重,广告投放者的品牌提升效果需要审视,而用户的兴趣、认知拓展也无从谈起,还未达到整个媒体生态真正健康发展所需的长期效率。
其次,从媒体与整个社会互动的方面出发,除了商业意义上的“效率”之外,还需要考虑的是媒体应为社会共识凝聚、价值观塑造所发挥的社会“价值”。算法的资源调配决策只能基于纯粹的“数据”,而社会价值在数据层面的映射虽然并非完全不可行,目前仍然相当不足。算法强调精准控制的结果,是更加分散的个体和无法凝聚的共识,以及在不全面的数据基础之上、看似准确循环的生态。一个没有共识的巨人,实质上又是可能失控的。
但再回过头来说,既然无限的需求、无限的内容已成事实,无限的匹配无法绕开算法,那么媒体巨人对于算法的目标设定,就必须更进一步,要能够支撑更加健康的商业效率且能够实现社会价值的映射与调整。
不同维度的“算法”
(内容银行重点实验室制表)
算法并非单一体,而是多维度、多层次的“算法簇”
首先要解决的问题是何谓算法?如果沿用理工科专业的界定,则算法是一系列解决问题的清晰指令,代表着用系统的方法描述解决问题的策略机制,能够对一定规范的输入,在有限时间内获得所要求的输出。最为典型的如排序算法,解决一连串数值的排序问题,其界定侧重于对数据按照一定目标进行机械化的处理。
而如果在传媒领域的语境中,一般当人们讨论算法,往往会指向诸如个性化推荐等领域,其实是较多在强调算法的应用场景。从这个角度出发,需要强调的是媒体的运行要解决软硬件、多渠道、多用户的多种问题,需要一整套算法,而非是单一算法能够满足。除了个性化推荐,怎么样吸引创作者入驻?这就是规则和算法。怎么样保证流畅度,这同样是算法。怎么样实现营销的精准和与内容的贴合,这也还是算法。算法的场景是非常多样的,智能媒体的运行中,几乎无处不算法。
而对于算法的分类、分层之所以重要,是因为我们一定要认识到潜藏于内容分发算法等“应用场景”维度之下的更多的算法,正如人脑是复合体,算法也是二级算法、三级算法乃至于N级算法层层嵌套的复合。底层影响上层,上层的应用又会对于底层算法带来新的空间和可能。认识到这一点,我们才能够足够科学地开始思考、探索自身所处的媒体应该构建的是什么算法,从哪里开始。
举例而言,今日头条的推荐算法经历了三个阶段:早期以非个性化推荐为主,重点解决热文推荐和新文推荐,这个阶段对于用户和新闻的刻画粒度也比较粗,并没有大规模运用推荐算法。中期以个性化推荐算法为主,主要基于协同过滤和内容推荐两种方式。基于内容推荐的方式,借助传统的NLP、word2vec和LDA对新闻有了更多的刻画,然后利用用户的正反馈(如点击,阅读时长、分享、收藏、评论等)和负反馈(如不感兴趣等)建立用户和新闻标签之间的联系,从而来进行统计建模。当前以大规模实时机器学习算法为主,用到的特征达千亿级别,能做到分钟级更新模型。
其算法的架构可以分为两层:
• 检索层(召回模型),有多个检索分支,拉出用户感兴趣的新闻候选(比如判断这个文章的来源是不是用户喜欢的,这个人是不是总爱看虎嗅的文章,就推荐虎嗅的。有的更简单,就看性别、年龄。)推荐召回模型:若干策略独立的负责判断,哪些内容有资格进入排序算法。
• 打分层(排序模型),基于用户特征、内容特征、环境特征三大类特征(用户标签及内容标签)使用实时学习进行建模打分。
从这一算法就可以看出,推荐算法中又包括了不同类型的推荐逻辑、往下层则又需要NLP、word2vec和LDA等算法的支持,因此,其算法的发展和演进绝非是一个“个性化推荐”就能够囊括,而是多种算法的综合作用。
在前期封面文章的案例中,同样提及BBC综合使用各种算法来解决内容生产优化的问题,其拥有大量音视频资源,人工为其添加文本字幕是几乎不可能完成的任务,而借助机器就另当别论了。其Transcriptor是一款文本转录工具,它可以从BBC的系统中获取音频,借助Kaldi引擎,利用语音到文本(STT)技术生成文字转录本,以便记者和档案管理员后续检查更正。而BBC的Juicer会自动抓取全球约850个免费新闻网站的内容,并利用人工智能技术对新闻内容分类和标签化。Juicer通过RSS文件抓取原文和日期时间等元数据,并且对文章中的人物、组织、地点及其他实体概念进行识别和标记,使其可以直接被搜索到。这些转录、抓取、识别、标记的算法,涉及NLP、图像处理等多个算法技术门类,有赖于更底层的算法支持。
而迪士尼在影院中对观众的面部表情进行情感分析,检测开心、恐惧、惊奇之类的情绪。目前这项技术已经在电影院的《丛林书》和《星球大战:原力觉醒》等150部电影中进行了测试,并在3179位观众中生成了1600万个数据点。迪士尼认为掌握观众观看电影的实时反应数据,能够更好地帮助迪士尼把控未来作品的开发方向,从而使迪士尼能够量化影片是否按预期的比例工作。这种面部情感分析技术依赖于更底层的人脸识别、图像情绪识别的算法。
底层算法的优化和提升才能实现面向应用场景的算法,更进一步支持智能化工具的研发和应用。
算法并非纯粹的“代码”,算法+场景+数据综合才能实现落地
算法看起来神秘,但事实上构建一个媒体所需要的基本算法并不能谈得上是谁的独门秘诀。谷歌立身之本是对于文本内容的处理,抖音的发展同样有赖于对视音频内容的分析,当下的精准广告投放系统中使用的多种算法,如用于用户点击预测、用户特征生成的算法,其根本逻辑也并不能说是机密。
那么,为什么有些媒体能够成长为巨头,有些媒体逐渐在算法大行其道的当下成为生态下游呢?其核心在于,算法并非独立发挥作用,而是依靠“算法+场景+数据”的系统化运行才能落地、生长,甚至实现自我优化。
首先,场景与算法的关系密不可分。算法要解决的问题究竟是什么,面向哪些群体,具体的场景界定可能涉及完全不同的算法选择。举例而言,同样是推荐算法,面向用户日常浏览需求的内容推荐、面向电商消费的商品推荐、面向广告投放的信息流推荐,其实质并不相同,所需要的算法体系亦会产生很大差异。又或者对于媒体平台而言,面向内部编辑使用的内容分析、面向管理者的内容表现、以及赋能外部参与者的内容工具,虽然同为“内容分析”,但实质需求也并不相同,所需要的数据、算法也不同。
其次,算法的运行效果在很大程度上受到数据的影响。数据的量级、质量、可用性等多个维度共同决定了算法的选型、具体算法的准确性,甚至当数据不能达到某些条件,有些算法都无法运行。而在现实的媒体运行中,任何一个媒体都会面对数据不全、数据稀疏、数据质量不高等各种问题,算法永远都是在一个并不“完美”的数据环境中落地、取得初步效果,并在这一过程中迭代升级,逐渐实现算法与数据的共同演化。
因此,在设计、调整算法的过程中,所需要完成的并不是单纯的“代码”,而是结合场景的具体需求、数据的具体情况而进行的整体体系设计,既需要自上而下的场景界定,又需要自下而上的数据考察。算法是顶层场景需求与底层数据基础的中间物,而非一个固定不变的“标准件”。
算法不可能完全“自主”,需把握传媒巨人的核心需求进行构建
当然,没有哪一家媒体可以做到在所有算法上的“自研”,面对如何多类型、多任务的数据处理需求和业务场景,从商业上考量,在方方面面谋求突破也是不可能的。因此,重要的问题就在于,什么是“核心”算法?如何才能实现对于核心算法的“自主”掌控?
所谓“核心”算法,笔者认为,对于媒体构建平台发挥决定性作用的算法即为“核心”,包括对于内容理解、流量分发、用户洞察等维度的算法,均为媒体应该着力突破的重点,决不能够拱手他人。例如就笔者访谈所见,近期国内的移动互联网广告中,字节占据越来越重的份额,海外则是Facebook、Google等,而其他的移动媒体流量平台中,出现了一些机构将自己的流量转予这些巨头进行代理销售的情况。其原因就在于,当媒体自身不具备足够强大的广告流量分配算法,无法实现精准营销,广告主自然就会转投向系统更强大、算法更准确的平台。而将自己的流量转予其他媒体售卖,商业营收自然就要受到削减,由此而言,必须要说分发算法是核心算法之一。
大脑是在环境中进化升级的 那么媒体也必须把自己放到真实的环境中锻炼升级,采买外部的数据服务固然是可以的,但是,如果不具备自研和自循环,始终依赖于采买,不能建立起自己的学习和适应力。因为数据技术和外环境是动态的,一次采买往往意味着持续依赖。
所谓的自研和采买,也不能够绝对化看待。算法是由多种技术组成的“簇”,虽然媒体需要最终具备对于用户、内容等洞察的算法能力,但更底层的NLP算法、语音识别算法等,可以通过合作来进行构建和获取。例如,早在2019年,百度就与人民日报社联合成立“人工智能媒体实验室”。该实验室主要基于百度大脑的核心能力,支持与满足媒体工作中的关键操作性需求。第一期的研究方向是利用百度的语音、图像、自然语言处理、知识图谱等AI技术,为人民日报打造一个智能化“编辑团队”,辅助媒体的新闻生产,提升编辑的生产效率。2021年5月22日,百度又与浙江广播电视集团举行了智能媒体战略合作签约仪式,共同探讨人工智能、大数据、云计算等技术如何更好地应用于媒体行业。基于百度云智一体全场景的智能媒体解决方案,双方将在融媒体建设上开展多样化的技术合作尝试,完成人工智能技术在媒体行业应用的深度实践。
当然,考虑到底层算法对上层算法的影响,一个真正具有智能能力的媒体,应该不满足于采买底层技术,而应该逐渐实现底层的突破,如此才能够真正将算法的命脉掌握在自己手中。
算法并非“自组织”,人机协同实现算法最优
算法不是可以自然进化、自动适应的组织,媒体应用算法的过程中出现的问题远远不止信息茧房,人机协同是算法价值最优的必须解。而人机协同并不单纯是由人来介入到内容审核这么简单,需要站在更全局的角度理解为何需要人机协同、以及如何实现人机协同。
首先,人机协同的必要性在于算法如此复杂,不同算法各有边界,算法所能发挥的作用与媒体自身的基础、场景又密切相关。算法失灵,有时问题并非算法本身不好,而是算法与媒体、场景的“不适配”。因此,第一重人机协同是需要有能够全盘把握各种算法、需求的人。
对于媒体搭建自己的计算大脑而言,不可能所有的算法都是自己从零起步,而是对于各种算法资源的调度和协调,以及算法和数据的适配。这就需要有恰当的人员配置,能够对于业务和算法都有全盘的、战略性的考量。这是为什么各大媒体集团都将技术研发置于重要的核心位置,而不仅仅是一个实现和执行的角色,且也都非常重视实验室这一机构的设定和发展。国内的几家互联网公司均具有较强的技术基因,海外的媒体集团中,如谷歌、苹果也是技术引领性质较重,而国内的传统媒体集群则相对强调内容属性,技术人员依然还是较为边缘的位置。这两种配置结构都有不足,需要加以融合。
其次,人机协同的必要性在于算法无法完全理解“内容”以及内容背后的“价值”。作为媒体,算法所处理的总归是带有文化属性的内容,要在算法中凸显价值观引领,而不可能将内容完全视为毫无立场的数据,任由算法进行处理和推送。一则数据、算法有其局限性,需要人来加以弥补;二则对于价值观元素的加入也一定要有人来审定和把握。而这一过程中,目前采取的方式是加入大量的人工审核,未来的算法,一定是将人工审核的工作与算法再做更加高效的分配和融合。
例如,人民日报社与阿里云联合打造的AI编辑部2.0便利用智能化手段完成这一任务。其承载的智能审核功能依托官方海量舆情、预警大数据平台,借助成熟人工智能算法,一可精准识别视频、图片中出现的涉政人物;二可自动检测落马官员、劣迹艺人;三可智能判定色情、暴力、武器、恐怖、画中画及四种违规场景。在2021年两会期间,人民日报社制作《两会下团组》系列视频时,便借助AI编辑部2.0在半小时内快速完成了敏感人物的初筛工作,还成功筛查出两名落马官员并准确标注出其出现的时间段。这一AI编辑部的实现,必然有赖于编辑经验转化为算法可以使用、训练和迭代的数据。
人民日报创作大脑
(图片来源:人民日报智慧媒体研究院)
结语
我们似乎倾向于将算法看作“一个”公式、“一套”代码,实际上,算法层层叠叠构成一个又一个系统,与传媒运行中的场景、数据交织,形成纷繁复杂的网络,对整个“巨人”平台的各个角度发挥着作用。
大脑只是比喻,对传媒巨人而言,可以说无处不算法,也可以说算法“们”自成“世界”。摆脱单纯看待某种算法、某个作用的视角,再将人与算法的世界相交融,算法才可真正成为具有价值的巨人大脑。而当算法真的在传媒巨人的训练之下,成为了如同人脑一样的复杂体,是否就具备了自我演化的可能,并超出人类预设的轨道,一跃而进入到另一个“新世界”呢?