» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


 21 12
发新话题
打印

AI有个最不智能地方是不会像人一样说不知道

posted by wap, platform: iOS
或者说不确定,不管真假对错都给你整几句,问它越小众冷门的问题越容易露怯

目前来讲,还无法完全替代搜索引擎


TOP

涉及设备参数的问题特别喜欢瞎编,数据库里面没有也给你硬编一个出来,现在搜设备参数类的还是传统搜索引擎



TOP

posted by wap, platform: Android
自注意力机制是这样的。本身模型底层缺陷。好点的就是结合搜索引擎和rag。


TOP

这不就是那个图灵测试悖论么……

TOP

posted by wap, platform: Android
这个是ai的“幻觉”问题。恰恰是这种向量化和泛化的机制,才有了现在ai的底层逻辑。本质上,ai就是一个持续做梦的机器,梦到我们所认为的逻辑错误的情景也是它机制的一部分。其实,人这个模型又何尝不是活在一个相对逻辑完备的梦境中呢。幻觉恰恰是ai能成为ai的了不起的地方。
现在很多模型不断的采用各种策略降低幻觉发生频次和影响范围,你也可以用一些诸如“得出结论要反向核查,重点检查幻觉和逻辑错误,同时把关键结论的引用出处做信源检查并列出引用地址”这类的提示词,来部分解决这个问题。

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑

TOP

posted by wap, platform: Android
所以,总结下,我觉得ai给出的“幻觉“(错误答案),恰恰是它们最为智能的一种体现。
经常有人说“世界就是个草台班子”,其实我们的世界里本来就充斥着大量幻觉,这种混乱才是这个世界的本质吧

本帖最后由 sunjianxi 于 2025-8-7 12:24 通过手机版编辑

TOP

因为transform模型的ai都是猜,它只是输出计算范围内概率最高的文字给你看

TOP

posted by wap, platform: Android
你提示它,不确定就说不知道就行了

TOP

posted by wap, platform: MAC OS X
可以通过提示词来进行优化, 本质上就是一个相似的推断, 让他提高问答质量和阈值就可以了。 一般做agent的会这样设定。
但是一般人都是通用性的问答, 也懒得去配置一大堆提示词来获得优秀的回答, 而是通过多轮上下文来理解。

TOP

怎么不会,连siri都会

TOP

posted by wap, platform: iPhone
这个是个工程问题
生产环境常规的做法
回让它自检查一次
提问(人)-回答(ai)-检查问题加前面的答案 只回答对错(ai)
如果对就返回答案 如果错就返回不知道
代价就是token开销变大

TOP

posted by wap, platform: Chrome
我反省了一下,遇到ai回答有错误基本上都是和中国相关的问题,因为中文互联网信息太乱、错误的信息也很多,导致ai在搜索汇总的时候难免出错,因为ai是无法分辨互联网消息真假的,只能默认都是真的,而冷门的问题又很少有多重渠道信息用来对比辨别,这才导致“胡乱答”的结果
这个锅一半是ai的综合能力还有待提升,另一半是国人说话做事不严谨

TOP

posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。

TOP

引用:
原帖由 aso 于 2025-8-8 01:11 发表
posted by wap, platform: iPhone
但ai会说“对不起我错了”。。。
这起码战胜了99%的中国人。。。
战胜了100%的泥潭人。
本帖最近评分记录

TOP

posted by wap, platform: Android
chatgpt5新特征已经开始减少幻觉了

TOP

 21 12
发新话题
     
官方公众号及微博