Board logo

标题: AI有个最不智能地方是不会像人一样说不知道 [打印本页]

作者: 道克斯    时间: 2025-8-6 22:41     标题: AI有个最不智能地方是不会像人一样说不知道

posted by wap, platform: iOS
或者说不确定,不管真假对错都给你整几句,问它越小众冷门的问题越容易露怯

目前来讲,还无法完全替代搜索引擎
作者: Squallgjs    时间: 2025-8-6 22:46

涉及设备参数的问题特别喜欢瞎编,数据库里面没有也给你硬编一个出来,现在搜设备参数类的还是传统搜索引擎
作者: pocketmom    时间: 2025-8-7 08:05

posted by wap, platform: Android
自注意力机制是这样的。本身模型底层缺陷。好点的就是结合搜索引擎和rag。
作者: fash    时间: 2025-8-7 08:15

这不就是那个图灵测试悖论么……
作者: sunjianxi    时间: 2025-8-7 12:22

posted by wap, platform: Android
这个是ai的“幻觉”问题。恰恰是这种向量化和泛化的机制,才有了现在ai的底层逻辑。本质上,ai就是一个持续做梦的机器,梦到我们所认为的逻辑错误的情景也是它机制的一部分。其实,人这个模型又何尝不是活在一个相对逻辑完备的梦境中呢。幻觉恰恰是ai能成为ai的了不起的地方。
现在很多模型不断的采用各种策略降低幻觉发生频次和影响范围,你也可以用一些诸如“得出结论要反向核查,重点检查幻觉和逻辑错误,同时把关键结论的引用出处做信源检查并列出引用地址”这类的提示词,来部分解决这个问题。

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑
作者: sunjianxi    时间: 2025-8-7 12:22

posted by wap, platform: Android
所以,总结下,我觉得ai给出的“幻觉“(错误答案),恰恰是它们最为智能的一种体现。
经常有人说“世界就是个草台班子”,其实我们的世界里本来就充斥着大量幻觉,这种混乱才是这个世界的本质吧

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑
作者: klites    时间: 2025-8-7 12:25

因为transform模型的ai都是猜,它只是输出计算范围内概率最高的文字给你看
作者: somesun    时间: 2025-8-7 12:53

posted by wap, platform: Android
你提示它,不确定就说不知道就行了
作者: maybach    时间: 2025-8-7 15:40

posted by wap, platform: MAC OS X
可以通过提示词来进行优化, 本质上就是一个相似的推断, 让他提高问答质量和阈值就可以了。 一般做agent的会这样设定。
但是一般人都是通用性的问答, 也懒得去配置一大堆提示词来获得优秀的回答, 而是通过多轮上下文来理解。
作者: dragong    时间: 2025-8-7 16:55

怎么不会,连siri都会
作者: mting    时间: 2025-8-7 17:43

posted by wap, platform: iPhone
这个是个工程问题
生产环境常规的做法
回让它自检查一次
提问(人)-回答(ai)-检查问题加前面的答案 只回答对错(ai)
如果对就返回答案 如果错就返回不知道
代价就是token开销变大
作者: 道克斯    时间: 2025-8-7 19:49

posted by wap, platform: Chrome
我反省了一下,遇到ai回答有错误基本上都是和中国相关的问题,因为中文互联网信息太乱、错误的信息也很多,导致ai在搜索汇总的时候难免出错,因为ai是无法分辨互联网消息真假的,只能默认都是真的,而冷门的问题又很少有多重渠道信息用来对比辨别,这才导致“胡乱答”的结果
这个锅一半是ai的综合能力还有待提升,另一半是国人说话做事不严谨
作者: aso    时间: 2025-8-8 01:11

posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
作者: urtoys    时间: 2025-8-8 08:37

引用:
原帖由 aso 于 2025-8-8 01:11 发表
posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
战胜了100%的泥潭人。
作者: hisame    时间: 2025-8-8 10:07

posted by wap, platform: Android
chatgpt5新特征已经开始减少幻觉了
作者: hikari34    时间: 2025-8-8 21:45

提问的越精确,幻觉越少
AI对领域内专业人士的帮助远远超过对小白的帮助
作者: 雨中芭蕾    时间: 2025-8-13 11:15

你不觉得中年老男人也是如此么,懂不懂都要胡诌几句
作者: 天涯夹心人    时间: 2025-8-13 11:22

posted by wap, platform: Chrome
这一套配合泥锅老年人手机app绝了,搜一个问题,巴拉巴拉一段虚虚实实的,然后还和你说网上讲的。
作者: 道克斯    时间: 2025-8-13 11:35

posted by wap, platform: Chrome
gpt这次更新后在页面最下方有个提示
作者: sharonsl    时间: 2025-8-17 06:14

posted by wap, platform: VIVO
因为现在的AI还不知道自己不知道
作者: alfredxi    时间: 2025-8-17 12:48

posted by wap, platform: iPhone
引用:
原帖由 @道克斯  于 2025-8-13 11:35 发表
gpt这次更新后在页面最下方有个提示
这提示一直都有啊
作者: LTFYH    时间: 2025-8-18 06:47

posted by wap, platform: VIVO
这事的根源其实是ai本身的机制造成的,ai都是计算概率的,本身又是大语言模型,理论上来说语言文字之间的联系概率上来说不会为0




欢迎光临 TGFC Lifestyle (http://bbs.tgfcer.com/) Powered by Discuz! 6.0.0