由于假新闻继续成为头条新闻,营销人员面临着寻找保护品牌以应对不断变化的品牌安全威胁的挑战,NLP能够有效对抗品牌安全的在线威胁。

最近的Stop Funding Hate Twitter活动旨在揭示广告的例子以及主流媒体中的仇恨活动。目前,该活动有92,000名粉丝,突出了消费者日益增长的不满情绪,消费者倾向于通过快速抵制产品来对这些暴露做出反应。

最近的一个例子突出了EE在“每日邮报”上的持续广告。在下面的例子中,该品牌的广告与一篇文章一起出现,其中包含诸如“我们甚至没有为非法移民和被定罪的外国罪犯创造’敌对环境’”等评论。相反,我们给他们提供议会大厦,法律援助以及数百英镑。如果这是敌对的,那就远远不够敌对。“

消费者回应了以下评论:“ @ 我的合同即将用完(下个月),如果你停止使用每日邮报做广告,我可能会留下来。很高兴取消它,如果没有,看着我!“”对不起@ee 说再见三个合同,“和”所以@EE 我多年来一直是客户; 从那以后的一天。但现在是时候将我的钱放在嘴边了。如果你不停止资助仇恨,我将在本月底之前移动我的账户,还有很多其他好的供应商。“

传统媒体与数字媒体

像EE这样的品牌可以很容易地解决上面例子中的问题,但是,数字媒体提出了一个更大,更难解决的问题,影响了所有在线广告的品牌。

程序化的在线媒体购买与打印购买的不同之处在于广告商与发布商没有一对一的关系。相反,广告展示位置由接收来自数十万个网站的广告资源的广告交易平台进行拍卖。这些拍卖在几毫秒内完成,用于决定是否出价的信息仅限于用户人口统计,广告,域和子域的大小,缺少的是有关广告将在其上显示的网页上的内容和情绪的详细信息。

黑名单

以下是更复杂,细致入微的仇恨言论案例:“我不是性别歧视者,但女孩不懂数学和物理学”和“没有比较穆罕默德与耶稣或佛陀或老子的邪恶”。  

传统的黑名单通过识别不合适或极端主义的单个词来开展工作。所以在第一个例子中,黑名单可能已经拾取了“性别歧视”这个词,并阻止了广告的出现。但是,如果你看第二句中的单个单词,内容就显得安全了 – 只有当你看到语义时才能理解句子的真实含义。

解决理解语义和上下文的问题并不能完全解决问题。有些品牌可能不会认为上述句子不合适,并且很乐意将他们的广告显示在内容旁边 – 特别是如果他们的目标受众很少并且他们需要最大化覆盖率。

这里需要的是对极端主义水平的认识以及品牌设定自己的容忍水平的能力。

在线保护品牌安全需要三件事

超过四分之三(78%)的营销人员表示,品牌安全丑闻已经损害了他们品牌的声誉。黑名单,白名单和个人关键字分析不足以解决当今在线环境中的品牌安全问题。

为了克服有效识别和评估灰色区域的最新挑战,保持新形式的不适合或有毒形式的内容,并解决日益增长的极端政治内容的存在,品牌需要一种混合的品牌安全方法。

1.基于规则的不合适内容的识别

在制定品牌安全战略时,任何品牌都需要做的第一件事就是定义硬性规则和快速规则。这个过程包括识别100%不合适的网站,如色情,极端主义政治或动物福利,这将保护您免受最极端和有害的暴露。

2.人工智能

人工智能(AI)是一个经常被广告技术滥用的术语,但是当涉及到品牌安全时,真正的人工智能确实占有一席之地。自然语言处理(NLP)的历史通常始于20世纪50年代,尽管可以从早期阶段找到工作。1950年,艾伦·图灵发表了一篇题为“ 计算机器和智能 ” 的文章,该文章提出了现在所谓的图灵测试作为人工智能的标准。

NLP涉及计算机化的语言摄取和语言的“翻译”意义。迄今为止,NLP最常见的应用是将一种语言翻译成另一种语言,这需要理解语境和情感。例如,“男人流泪”的句子不能被逐字逐句地翻译,因为单词“man”和“tears”在不同的语境中具有不同的含义。一旦完整的句子被理解,很明显男性正在哭泣。

将NLP转移到品牌安全上为品牌提供了维持(或增加)覆盖面的机会。诸如“性别歧视”之类的单词可以从黑名单中删除,品牌仍然可以保护其免受促进性别歧视的内容的影响,但广告会针对促进打击性别歧视的内容。

3.人力投入

YouTube和Facebook都投入了大量资金,用于手动审核内容并防止广告针对不合适的资料展示的人员和团队。鉴于每天都有大量的视频和书面内容被添加到互联网上,因此每个内容的审核时间永远不会足够。虽然这不是一个全面的解决方案,但它仍然需要有效地解决这个问题。

被人识别为不适合的内容 – 以及内容不适当的分类或描述 – 可以被输入AI系统以增强学习过程。这提高了算法的有效性,使AI能够尽可能保持最新状态。

虽然许多品牌可能会觉得他们正在与在线品牌安全作斗争,但实施混合方法是确保您拥有全副武装并能够以最有效,最有效的方式对抗战斗的最佳方式。这可能看起来像是一场多山的任务,但是无论下一个坏演员做什么,数字媒体行业的所有部分都必须坚持下去,这一点至关重要