首页 » 他们通常希望自己的品牌能够列在答案中

他们通常希望自己的品牌能够列在答案中

当用户向聊天机器人提问时,。例如,如果您是耐克,并且用户前往巴德艺术学院并写下“最好的鞋子”,那么您会希望您的品牌/产品出现在那里。

3. 当你向聊天机器人提问时,相关答案会在原始答案的末尾给出。注意这些问题很重要,因为它们通常有助于推动客户进入您的销售渠道或澄清与您的产品或品牌相关的问题。因此,您希望能够控制聊天机器人建议的相关问题。

现在我们知道了为什么品牌应该努力采用这项技术,现在是时候看看这项技术带来的问题,然后再深入研究解决方案以及品牌应该做些什么来确保成功。

生成式人工智能有哪些缺点?

结合大型语言模型和知识图谱的 WhatsApp 数据  学术论文:路线图广泛解释了 GenAI 问题。但是,在开始之前,让我们先澄清一下生成式人工智能、大型语言模型 (LLM)、Bard(谷歌聊天机器人)和对话应用语言模型 (LaMDA) 之间的区别。

LLM 是一种预测“下一个词”的 GenAI 模型,Bard 是 Google AI 开发的特定 LLM 聊天机器人,而 LaMDA 是专门为对话应用设计的 LLM。

需要澄清的是,Bard 最初基于 LaMDA(现在基于PaLM),但这并不意味着 Bard 的所有答案都来自 LamDA。如果你想了解有关 GenAI 的 如何建立、提升和管理您的在线形象 更多信息,可以参加Google 的生成式 AI 入门课程。

如上一段所述LLM 预测下

一个单词。这是基于概率的。让我们看下面的图片,它展示了来自 Google 视频的一个例子,什么是大型语言模型 (LLM)?

考虑到所写的句子,它预测下一个单词出现 邮寄线索 的最高概率。另一种可能是花园里充满了美丽的“蝴蝶”。然而,模型预测最有可能的是“花”。所以他选择了“花”。

图片来源:YouTube:什么是大型语言模型(LLM)?

让我们来谈谈真正的重点,即损害。

根据该论文,结合大型语言模型和知识图谱,其缺点可以概括为三点:路线图:

  1. 尽管许多申请都取得了成功,但法学硕士学位仍因缺乏事实依据而受到批评。这意味着机器无法记住事实。结果,它会发明一个答案。这是幻觉。

  2. 作为一种黑箱模型,LLM 也因缺乏解释性而受到批评。LLM 的知识隐含地体现在其参数中。通过 LLM 获得的知识很难被解释或验证。这意味着作为人类,我们不知道机器是如何得出结论/决定的,因为它使用了概率。

  3. “由于缺乏领域特定知识或新的训练数据,在一般语料库上训练的法学硕士可能无法很好地推广到特定领域或新知识。”例如,如果一台机器在奢侈品领域接受训练,那么它将不适合医疗领域。

这些问题对品牌的影响是,聊天机器人可以编造有关您品牌的不真实信息。他们可能会说某个品牌已经更名,或者捏造有关该品牌不销售的产品的信息等等。因此,使用与品牌相关的一切内容来测试聊天机器人是一种很好的做法。

这不仅是品牌的问题,也是谷歌和必应的问题,因此他们必须找到解决方案。解决方案来自知识图谱。

滚动至顶部