匿名
2025/11/4 11:50 
ChatGPT, Deepseek, Gemini, Grok 是大型語言模型,屬於生成式人工智能

因此它會有幻覺,會無中生有。

所謂大型語言模型的幻覺,是指看似合理,邏輯和語言脈絡正確或看似正確,實際是錯誤或無中生有。

如果要減少幻覺,可使用網絡搜索 / 聯網搜索,以及深度思考,可大大減少幻覺機會。
但它不竟是Generative AI,仍然有幻覺風險。

因此,不要妄想ChatGPT, Deepseek, Gemini, Grok 可以解答到神學、哲學或形而上學的問題。
或許它是哲學方面比一般人答得更得體,但它不會是真正的答案。
匿名
2025/11/4 11:59 
另外值得一提的是

Deepseek 是最著名的 Open Training AI Model 之一,你可以到官網下載,但你會發現,它的 Size 只有 700 GB 至 800 GB連 1 TB 也不夠。

而整個互聯網,但是單是 Common Crawl ,已經超過 300 TB 容量。

為甚麼差那麼遠 ?

因為大型語言模型,並沒有儲了全網所有資訊或知識,而係透過機器學習後,揀選了重點儲存,然後再經過壓縮,最終儲存下來。

AI 訓練過程有點像「把百科全書讀完,然後只留下腦子裡的語言規律」。模型不會記住每一篇文章,而是抽象出「語言的概率分布」。

所以AI 回應很多都是Generate出來,不是從資料庫中取出來。因此會有幻覺。如果你選了聯網搜尋,可大大減少幻覺,但即使如此,它仍然會產生一些幻覺出來。

為甚麼聯網搜尋仍然有幻覺 ?
雖然模型可以把檢索到的內容作為依據,生成更貼近事實的回答,但仍然不是零幻覺,因為:
- 模型仍需「解讀」檢索結果,並用自己的語言生成。
- 在解讀或組合過程中,仍可能出現誤讀或過度推理。
匿名
2025/11/4 12:03 
因此,大家不要妄想 ChatGPT, Deepseek, Gemini, Grok 可以解答到神學、哲學或形而上學的問題。

它不給你幻覺,你已經要謝天謝地

只能夠比你一個看似比普通人更有禮貌,更得體的回應神學問題,但不是真正的答案。