一份新报告称谷歌政策的改变可能会降低 Gemini 的准确性

有一份新报告称,谷歌的生成式人工智能聊天机器人 Gemini 的一些内部评估政策,

保证不太准确的反应。据称,谷歌正在让承包商(正在评估模型的人)对 Gemini 对他们不合格的主题的回答进行评分。

训练人工智能聊天机器人是一个相当复杂的过程。这不仅仅是将数据添加到人工智能模型的数据库。事实上,数据应该满足某些参数,例如适当的组织结构,以便人工智能能够使用它。有数百甚至数千人评估生成的响应的质量,以确保错误响应尽可能少。

然而,一份来自

TechCrunch声称谷歌没有在对 Gemini 响应进行评级的政策中投入所需的全部精力。此前,据报道,如果承包商没有资格验证其准确性,则可以选择跳过答案。据报道,现在谷歌不会让他们跳过答案,即使他们不具备验证答案所需的知识。

谷歌要求人们对他们理解的部分提示进行评分,即使整个提示超出了他们的能力范围。他们还应该留下一张纸条,说明他们在该领域没有足够的专业知识。

据报道,也有例外情况,即允许承包商跳过响应——如果关键信息丢失,导致响应难以理解。此外,当生成潜在有害内容时,该例外情况也适用。

当然,有些人可能会对所谓的新政策和双子座的准确性感到担忧。当人们向双子座寻求健康建议时,这可能尤其令人担忧。

目前,谷歌尚未就此事发表任何声明。该公司也有可能调整其他政策以确保准确性。

我个人发现,在我信任生成式人工智能提供健康建议之前,它还有很多发展空间。到目前为止,我已经使用过不同的模型,包括 ChatGPT 和微软的 Copilot,尽管我喜欢这项技术,但我仍然不会 100% 信任它,尤其是在涉及健康问题等重要问题时。