避免争论中错误类比导致的逻辑错误 - 道释儒/智慧之花(Wisdom)版 - 北大未名BBS
返回本版
1
/ 1
跳转

避免争论中错误类比导致的逻辑错误

[复制链接]
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
1楼

错误类比是一种逻辑谬误,它发生在将两个事物进行比较时,虽然它们在某些方面相似,但在关键点上却有着重要的不同。这种错误会导致结论无效或者误导。错误类比通常难以察觉,因为表面上的相似性可能会让人觉得比较是合理的。


例如,假设有人声称吸烟对健康的影响可以类比为吃巧克力,理由是两者都能带来快感。然而,吸烟与吃巧克力的关键区别在于,吸烟已被广泛证实会对健康产生长期负面影响,而适量食用巧克力则并不必然有害,且可能有一些好处。在这个例子中,错误类比忽略了吸烟和吃巧克力之间的重要差异,从而导致了一个有缺陷的结论。


识别或避免错误类比,可以考虑以下几个步骤:


检查比较对象之间的本质差异。

确定比较是否涉及相关属性。

考虑是否有更合适的类比对象。


签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

 最后修改于2024-08-29 09:53:09
  • 发表于2024-08-29 09:50:53

ErwinFish [离线]

Schrodinger

1.7一般站友

发帖数:31 原创分:0
<只看ta> <ASCIIArt>
2楼

类似的书籍有哪些,想学习

micoloveu (一点爱) 在 ta 的帖子中提到:

错误类比是一种逻辑谬误,它发生在将两个事物进行比较时,虽然它们在某些方面相似,但在关键点上却有着重要的不同。这种错误会导致结论无效或者误导。错误类比通常难以察觉,因为表面上的相似性可能会让人觉得比较是合理的。

例如,假设有人声称吸烟对健康的影响可以类比为吃巧克力,理由是两者都能带来快感。然而,吸烟与吃巧克力的关键区别在于,吸烟已被广泛证实会对健康产生长期负面影响,而适量食用巧克力则并不必然有害,且可能有一些好处。在这个例子中,错误类比忽略了吸烟和吃巧克力之间的重要差异,从而导致了一个有缺陷的结论。

识别或避免错误类比,可以考虑以下几个步骤:

……

发表于2024-08-29 12:18:52
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
3楼

这个混合我学习书上的内容,AI的一部分内容,我自己理解的一部分内容,入门的话,可以京东,看看那本《逻辑学》适合你。



ErwinFish (Schrodinger) 在 ta 的帖子中提到:

类似的书籍有哪些,想学习


签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

发表于2024-08-29 12:52:20
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
4楼

我手头电子版的《逻辑学》经典,见附件:


ErwinFish (Schrodinger) 在 ta 的帖子中提到:

类似的书籍有哪些,想学习

签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

发表于2024-08-29 13:10:46

BlancRedCesc [离线]

Le Professeur

1.8雾滴

发帖数:751 原创分:0
<只看ta> <ASCIIArt>
5楼

AI在这种问题上真的靠谱么?

很多编造的概念和论证吧

micoloveu (一点爱) 在 ta 的帖子中提到:

这个混合我学习书上的内容,AI的一部分内容,我自己理解的一部分内容,入门的话,可以京东,看看那本《逻辑学》适合你。



签名档

Arsene Wenger has done it again!

发表于2024-08-29 13:18:43
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
6楼

AI可以拓展问题的广度,循着拓展内容,可以进一步阅读,补充我们读书时阅读范围往往也就是几本书的困境。虽然AI在深度上可能无法和经典相比,但是在综合已有知识方面效率是比较高的。


BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:

AI在这种问题上真的靠谱么?

很多编造的概念和论证吧


签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

发表于2024-08-29 13:26:05

BlancRedCesc [离线]

Le Professeur

1.8雾滴

发帖数:751 原创分:0
<只看ta> <ASCIIArt>
7楼

广度上我同意——我的质疑点主要是如何分辨错误的信息。


在理科上它经常给出跟事实完全不相符的内容,尤其是到了细节方面。在哲学这一类不容易证伪的论断上,如何采信AI给出的看法和总结呢?


PS主要用的是GPT-4

micoloveu (一点爱) 在 ta 的帖子中提到:

AI可以拓展问题的广度,循着拓展内容,可以进一步阅读,补充我们读书时阅读范围往往也就是几本书的困境。虽然AI在深度上可能无法和经典相比,但是在综合已有知识方面效率是比较高的。

签名档

Arsene Wenger has done it again!

 最后修改于2024-08-29 13:30:05
  • 发表于2024-08-29 13:29:44
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
8楼

遇到和我们经典阅读而采信的知识相悖的AI信息时,我们会反思或者排斥,关键是符合我们认知时,我们应该采用什么样立场。

从AI工作原理来说,无非是综合已有知识,然后按着引用或者其他标准做排序和甄选,最后形成给我们的东西,所以AI给我我们的答案,并不是AI发明的,依然是人的答案,只不过通过算法而呈现给我们。他可能不够新,只要还没有被AI索引到的内容,不会呈现在答案中,他可能因为某些答案引用或者点击高而呈现给我们,而这些答案并不是最优解,甚至是错误的——只不过对此感兴趣的人比较多而已。

所以用AI需要连续提问,或从不同的角度提问,或深度提问,让AI给出引用的网址,去看原始的信息是怎么论述的。

天下文章一大抄,其实AI也是抄文章的专家而已。正确与否也是一个概率了,多数情况下是可以接受的。


受限于版权等诸多因素,AI只能用在网络空间人们发表的看法或者理论,有版权的电子书和线下的书,多数情况下是AI给不了的,只能买书去看了。



BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:

广度上我同意——我的质疑点主要是如何分辨错误的信息。

在理科上它经常给出跟事实完全不相符的内容,尤其是到了细节方面。在哲学这一类不容易证伪的论断上,如何采信AI给出的看法和总结呢?

PS主要用的是GPT-4


签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

发表于2024-08-29 14:01:41

BlancRedCesc [离线]

Le Professeur

1.8雾滴

发帖数:751 原创分:0
<只看ta> <ASCIIArt>
9楼

有一定道理...

不过想补充一点“综合已有知识,然后按着引用或者其他标准做排序和甄选”——这个不太是目前大模型AI的逻辑。如果是这样的话,就不会出现大量生成的“缝合怪”式令人啼笑皆非的“知识”了...


不过结论还是,多看书!哈哈这个肯定没错

micoloveu (一点爱) 在 ta 的帖子中提到:

遇到和我们经典阅读而采信的知识相悖的AI信息时,我们会反思或者排斥,关键是符合我们认知时,我们应该采用什么样立场。

从AI工作原理来说,无非是综合已有知识,然后按着引用或者其他标准做排序和甄选,最后形成给我们的东西,所以AI给我我们的答案,并不是AI发明的,依然是人的答案,只不过通过算法而呈现给我们。他可能不够新,只要还没有被AI索引到的内容,不会呈现在答案中,他可能因为某些答案引用或者点击高而呈现给我们,而这些答案并不是最优解,甚至是错误的——只不过对此感兴趣的人比较多而已。

所以用AI需要连续提问,或从不同的角度提问,或深度提问,让AI给出引用的网址,去看原始的信息是怎么论述的。

……

签名档

Arsene Wenger has done it again!

发表于2024-08-29 14:11:14
楼主

micoloveu [离线]

一点爱

4.5高级站友

发帖数:3907 原创分:1
<只看ta> <ASCIIArt>
10楼


:)


BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:

有一定道理...

不过想补充一点“综合已有知识,然后按着引用或者其他标准做排序和甄选”——这个不太是目前大模型AI的逻辑。如果是这样的话,就不会出现大量生成的“缝合怪”式令人啼笑皆非的“知识”了...

不过结论还是,多看书!哈哈这个肯定没错


签名档

    ╭╯.★*★.             

  .*★*.*  .★*★.          

 ★       ★  *  *.*★*.    

  一点  *   '        ★   

   .      ..'  爱   ★   

    ‘·  . .         .     

发表于2024-08-29 14:17:09
返回本版
1
/ 1
跳转

请您先 登录 再进行发帖

快速回复楼主
标题
建议:≤ 24个字
签名档
发布(Ctrl+回车)

您输入的密码有误,请重新输入