避免争论中错误类比导致的逻辑错误
错误类比是一种逻辑谬误,它发生在将两个事物进行比较时,虽然它们在某些方面相似,但在关键点上却有着重要的不同。这种错误会导致结论无效或者误导。错误类比通常难以察觉,因为表面上的相似性可能会让人觉得比较是合理的。
例如,假设有人声称吸烟对健康的影响可以类比为吃巧克力,理由是两者都能带来快感。然而,吸烟与吃巧克力的关键区别在于,吸烟已被广泛证实会对健康产生长期负面影响,而适量食用巧克力则并不必然有害,且可能有一些好处。在这个例子中,错误类比忽略了吸烟和吃巧克力之间的重要差异,从而导致了一个有缺陷的结论。
识别或避免错误类比,可以考虑以下几个步骤:
检查比较对象之间的本质差异。
确定比较是否涉及相关属性。
考虑是否有更合适的类比对象。
类似的书籍有哪些,想学习
micoloveu (一点爱) 在 ta 的帖子中提到:
错误类比是一种逻辑谬误,它发生在将两个事物进行比较时,虽然它们在某些方面相似,但在关键点上却有着重要的不同。这种错误会导致结论无效或者误导。错误类比通常难以察觉,因为表面上的相似性可能会让人觉得比较是合理的。
例如,假设有人声称吸烟对健康的影响可以类比为吃巧克力,理由是两者都能带来快感。然而,吸烟与吃巧克力的关键区别在于,吸烟已被广泛证实会对健康产生长期负面影响,而适量食用巧克力则并不必然有害,且可能有一些好处。在这个例子中,错误类比忽略了吸烟和吃巧克力之间的重要差异,从而导致了一个有缺陷的结论。
识别或避免错误类比,可以考虑以下几个步骤:
……
这个混合我学习书上的内容,AI的一部分内容,我自己理解的一部分内容,入门的话,可以京东,看看那本《逻辑学》适合你。
ErwinFish (Schrodinger) 在 ta 的帖子中提到:
类似的书籍有哪些,想学习
我手头电子版的《逻辑学》经典,见附件:
ErwinFish (Schrodinger) 在 ta 的帖子中提到:
类似的书籍有哪些,想学习
AI在这种问题上真的靠谱么?
很多编造的概念和论证吧
micoloveu (一点爱) 在 ta 的帖子中提到:
这个混合我学习书上的内容,AI的一部分内容,我自己理解的一部分内容,入门的话,可以京东,看看那本《逻辑学》适合你。
AI可以拓展问题的广度,循着拓展内容,可以进一步阅读,补充我们读书时阅读范围往往也就是几本书的困境。虽然AI在深度上可能无法和经典相比,但是在综合已有知识方面效率是比较高的。
BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:
AI在这种问题上真的靠谱么?
很多编造的概念和论证吧
广度上我同意——我的质疑点主要是如何分辨错误的信息。
在理科上它经常给出跟事实完全不相符的内容,尤其是到了细节方面。在哲学这一类不容易证伪的论断上,如何采信AI给出的看法和总结呢?
PS主要用的是GPT-4
micoloveu (一点爱) 在 ta 的帖子中提到:
AI可以拓展问题的广度,循着拓展内容,可以进一步阅读,补充我们读书时阅读范围往往也就是几本书的困境。虽然AI在深度上可能无法和经典相比,但是在综合已有知识方面效率是比较高的。
遇到和我们经典阅读而采信的知识相悖的AI信息时,我们会反思或者排斥,关键是符合我们认知时,我们应该采用什么样立场。
从AI工作原理来说,无非是综合已有知识,然后按着引用或者其他标准做排序和甄选,最后形成给我们的东西,所以AI给我我们的答案,并不是AI发明的,依然是人的答案,只不过通过算法而呈现给我们。他可能不够新,只要还没有被AI索引到的内容,不会呈现在答案中,他可能因为某些答案引用或者点击高而呈现给我们,而这些答案并不是最优解,甚至是错误的——只不过对此感兴趣的人比较多而已。
所以用AI需要连续提问,或从不同的角度提问,或深度提问,让AI给出引用的网址,去看原始的信息是怎么论述的。
天下文章一大抄,其实AI也是抄文章的专家而已。正确与否也是一个概率了,多数情况下是可以接受的。
受限于版权等诸多因素,AI只能用在网络空间人们发表的看法或者理论,有版权的电子书和线下的书,多数情况下是AI给不了的,只能买书去看了。
BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:
广度上我同意——我的质疑点主要是如何分辨错误的信息。
在理科上它经常给出跟事实完全不相符的内容,尤其是到了细节方面。在哲学这一类不容易证伪的论断上,如何采信AI给出的看法和总结呢?
PS主要用的是GPT-4
有一定道理...
不过想补充一点“综合已有知识,然后按着引用或者其他标准做排序和甄选”——这个不太是目前大模型AI的逻辑。如果是这样的话,就不会出现大量生成的“缝合怪”式令人啼笑皆非的“知识”了...
不过结论还是,多看书!哈哈这个肯定没错
micoloveu (一点爱) 在 ta 的帖子中提到:
遇到和我们经典阅读而采信的知识相悖的AI信息时,我们会反思或者排斥,关键是符合我们认知时,我们应该采用什么样立场。
从AI工作原理来说,无非是综合已有知识,然后按着引用或者其他标准做排序和甄选,最后形成给我们的东西,所以AI给我我们的答案,并不是AI发明的,依然是人的答案,只不过通过算法而呈现给我们。他可能不够新,只要还没有被AI索引到的内容,不会呈现在答案中,他可能因为某些答案引用或者点击高而呈现给我们,而这些答案并不是最优解,甚至是错误的——只不过对此感兴趣的人比较多而已。
所以用AI需要连续提问,或从不同的角度提问,或深度提问,让AI给出引用的网址,去看原始的信息是怎么论述的。
……
:)
BlancRedCesc (Le Professeur) 在 ta 的帖子中提到:
有一定道理...
不过想补充一点“综合已有知识,然后按着引用或者其他标准做排序和甄选”——这个不太是目前大模型AI的逻辑。如果是这样的话,就不会出现大量生成的“缝合怪”式令人啼笑皆非的“知识”了...
不过结论还是,多看书!哈哈这个肯定没错