阅读时间: 6 分钟
我们热爱谷歌。而且,作为一名营销专业人士和技术人员,我不能不向谷歌询问我心中的一切问题。我知道互联网并不总是最好的信息来源,但它如此快捷和方便,因此不使用它也是不可避免的。
问题在于,我们对 SERP 中的独特信息过于满意,而没有仔细检查这些信息。我们阅读算法认为对我们有用的内容。因此,我们更容易陷入隐性偏见、半真半假或错误信息。
Google 及其 SERP 是否会导致更多偏见?在本文中,我们 国家邮箱列表 将研究这种算法在被误用时如何强化我们的无意识偏见(以及我们作为营销人员、SEO 专业人员和内容制作者的责任)。
什么是隐性偏见?
根据 perception.org 的说法,隐性偏见描述的 何影响结果 是我们对人的态度或与刻板印象有关,而我们并没有完全意识到这一点。一些例子包括将犯罪与特定的社会群体联系起来,或将弱点与女性气质联系起来,而没有意识到这一点。
这些偏见可能是积极的,也可能是消极的,并且可能来自任何类型的人。
然而,人们不仅仅是刻板印象,算法往往无法反映人类的细微差别。
值得注意的是,性别并不是引发无意识偏见的唯一因素。其他可能包括:
- 种族;
- 宗教;
- 政治意识形态;
- 年龄;
- 社会阶层;
- 国籍。
是的,即使在今天,我们也能看到刻板印象如何影响着营销工作。让我们深入探讨一下。
搜索引擎在这方面应该做什么?
前几天,我正在寻找一位女总统的图片。对我来说,最主要b 如何减少偏见 的结果是男性总统,这非常令人好奇。我必须明确指出,我正在寻找一位女性总统。
相比之下,当我在搜索引擎中输入“美发沙龙”时,结果页面上显示的大多是女性的图片。
当我谈论这些偏见如何存在于我们 何影响结果 的日常生活中时,我试图解释这一点。即使是在简单的 Google 搜索中。
对于 SERP 如何强化偏见的担忧并不是什么新鲜事。 2013年,联合国妇女署发起了一项名为“自动完成的真相”的活动,揭露了自动完成功能是如何暗示一些刻板印象的。
另一方面,作家萨菲亚·诺布尔在她的著作《压迫算法》中展示并批评了搜索引擎在强化刻板印象方面所发挥的重要作用。
其中,作者谈到了谷歌的种族主义历史。在一个简单的例子中,她展示了输入与直发白人女性相关的“专业发型”和与非裔美国人或黑人女性相关的“非专业发型”时出现的结果。
来源:时代周刊
在最近使用海量互联网文本语料库中的词嵌入进行的研究中,代表“人”概念的词语(例如“某人”或“人类”)更可能与“男人”而不是“女人”一起出现,这表明社会中个人集体表现出的“默认男性气质”偏见。
无意识的偏见和营销决策
正如我之前所说,偏见无处不在。包括我们的 2017 年国际理论物理中心会议 营销方法。甚至一些专家也承认偏见会导致我们成为糟糕的销售人员。这证明了我们的思想会对我们不利并导致我们失去转变。
然而,有些公司正在努力对抗这种普遍的错误观念,事实上,他们也从中获利。
一个简单的例子。根据Facebook的数据,在巴西,至少85%的汽车零部件行业广告都以男性为主角。为了给广告增添多样性,巴西吉普决定展示女性和男性在其新车中享受冒险的场景。
事实上,该活动取得了成功,在同时展示男女角色的广告中,品牌回忆率提高了 28 个百分点。
Pinterest 采取了另一项很好的举措,其算法旨在为搜索带来更多多样性。谷歌本身也认识到了文字的力量,并推出了一款包容性语言工具,力求考虑一些性别敏感的术语。例如,当您输入“警察”时,引擎将建议输入“警官”。
虽然在前面的案例中我们谈论的是社交媒体和更多的人为决策,但当谈到 SERP 时,我们还有其他因素,例如人工智能和算法。
令人悲哀的是,数据和技术可能会带有种族歧视。这听起来可能很矛盾,因为两者都应该是客观和精确的科学。
然而,我们要记住,数据和技术是由人类构建的,也容易受到自身偏见的影响,即使在构建人工智能时也是如此。
正如《搜索引擎杂志》的作者卡罗琳·莱登 (Carolyn Lyden)所说,“算法和机器学习的好坏取决于我们为这些模型提供的数据。”
幸运的是,作为营销人员,我们有能力改变我们的想法,识别我们的偏见,并采取行动。如果我们发现我们自己的偏见,我们就能察觉到某些事情只是一种刻板印象,并不代表现实。
发表回复