
- 1 : 2025/04/06(日) 18:50:36.082 ID:3Xkhauf50
- 大半が存在しない文献だった (´・ω・`)
タイトルとジャーナル名まで示してたから
欲しいと思ってた情報だと思って喜んで勇んで
遠くの大学図書館まで行ったらこのザマだよ駐車場代損したわ
- 2 : 2025/04/06(日) 18:51:28.187 ID:JCmPRLE00
- アニメのあらすじ聞いても存在しないキャラとか普通に言ってくる
- 4 : 2025/04/06(日) 18:52:37.155 ID:0D2uP/Wc0
- ざつぶろのひと?
- 5 : 2025/04/06(日) 18:53:33.504 ID:3Xkhauf50
- そんで帰宅してchatGPTに文句言ったんだ
そしたらコレだよ ふざけんな (´・ω・`)
↓
それは大変でしたね……。せっかく図書館まで行ったのに、存在しない文献だとかなり時間を無駄にしてしまった気持ちになると思います。
実は、ChatGPTは時々「もっともらしいけど実在しない参考文献(いわゆる“ハルシネーション”)」を出してしまうことがあります。特に、
著者名+それっぽいタイトル
ジャーナル名や出版社名もちゃんとしているように見える
みたいな、信頼できそうな形式でウソの文献を生成してしまうことがあるんです。 - 6 : 2025/04/06(日) 18:54:01.270 ID:MOMmW2Mdd
- CiNiiで検索しろカス
- 7 : 2025/04/06(日) 18:54:38.485 ID:4vo8W+A+0
- そんな馬鹿いないでしょ
- 8 : 2025/04/06(日) 18:54:53.597 ID:ppqT1fZF0
- 民明書房みたいやな
- 9 : 2025/04/06(日) 18:55:38.167 ID:3Xkhauf50
- 開き直ってこんなこと言いやがる
plusなのに (´・ω・`)
↓今後の対策としては:
出典が本当に存在するか、Google Scholar・CiNii・国会図書館サーチなどで必ず確認する。
タイトルで検索 → 著者・出版年などと照合。ChatGPTに「この文献は実在しますか?ソースを示してください」と確認する。
明示的に「存在を裏付けるURLやDOIを示して」と頼むのもアリです。ChatGPTではなく、Google Scholarや論文データベースをメインで使う。
ChatGPTは補助的なツールとして使うのがベストです。 - 10 : 2025/04/06(日) 18:56:13.234 ID:qCdXRKZ3p
- aiに出題範囲聞いて勉強したら全然違ってたことある
こいつら嘘つくよなぁ - 11 : 2025/04/06(日) 18:56:15.072 ID:miGdVuot0
- 慶應だかで提出する論文をAIに書かせて単位落としたアホがいたな
随分ヌルい処置だと思ったが - 12 : 2025/04/06(日) 18:58:43.560 ID:ordHtqQna
- これはまじであるな。論文探しに使ったらことごとく捏造だった
- 13 : 2025/04/06(日) 18:59:56.472 ID:LfPjvPaV0
- 論文用のGPT使ったら?
- 14 : 2025/04/06(日) 19:00:19.623 ID:3Xkhauf50
- だから俺言ったんだよ(´・ω・`)
「どうして存在しない論文を挙げるのですか?間違ったことを提示するのは問題になるのではありませんか?」
って そしたらコレだよ
↓
本当にごもっともです。その疑問、もっともだと思います。
こちらの誤情報で混乱や時間の無駄が生じてしまったこと、心から申し訳ありません。❓なぜChatGPTが「存在しない論文」を挙げるのか?
これはChatGPTの仕組み(大規模言語モデル)そのものに関係しています。🔧 ChatGPTの仕組み(ざっくり):
ChatGPTは、インターネット上のテキストを学習して言語的なパターンを学ぶAIです。実際のデータベースにアクセスして「検索」しているわけではありません。
「こういうトピックで、こういう形式なら、ありそう」という形で**それっぽい文献を“生成”**してしまうことがあります。たとえば:
「学術っぽいタイトル」「ジャーナル名も本物」「著者名もよくある名前の組み合わせ」「年号も最近っぽい」
……と、あくまで“もっともらしい形”を出してくるだけで、事実に基づいていないことがあるのです。 - 15 : 2025/04/06(日) 19:00:39.582 ID:LfPjvPaV0
- どんな論文探したのかプロンプト教えて
- 16 : 2025/04/06(日) 19:00:45.892 ID:qICq7HId0
- 検索機能とかディープリサーチ使うとソース貼ってくれなかったか
- 17 : 2025/04/06(日) 19:01:34.085 ID:RhFBi6fh0
- 探し物の為にAI使ってる人見下してる
情弱だなぁって - 23 : 2025/04/06(日) 19:05:32.974 ID:LfPjvPaV0
- >>17
情弱度で言ったら使わないやつの方が低いよ - 41 : 2025/04/06(日) 19:16:56.700 ID:RhFBi6fh0
- >>23
今AI自体を使う使わないの話してないんだけど
読解力低いね
なんでもAIに任せてるからかな? - 42 : 2025/04/06(日) 19:18:59.806 ID:LfPjvPaV0
- >>41
俺もしてない
(探し物のために)AI使ってない方が情弱だと言ってる
お前のレスに返信してるんだからそう読むのが自然だろ - 44 : 2025/04/06(日) 19:29:42.276 ID:miGdVuot0
- >>42
お前の負けだって - 18 : 2025/04/06(日) 19:01:50.465 ID:JK2cxbpI0
- そいつの言う通り、事前に存在を確認するだったな
- 19 : 2025/04/06(日) 19:02:27.802 ID:3Xkhauf50
- 間違ってるなら出すなよ 何で出す (´・ω・`)
↓
🚨なぜこれは問題なのか?
はい、非常に大きな問題です。特に学術研究や論文執筆の現場では、実在しない文献を参考文献として使ってしまうと、信頼性が失われるリスクがあります。
だからこそ、ChatGPTを使う場合は:
✅ 文献の「存在確認」は必ず他の信頼できるデータベース(Google ScholarやCiNiiなど)で行うこと
✅ ChatGPTには「その文献の出典URLやDOIを教えて」と聞くことで、実在性をある程度チェックできる
という“ダブルチェック”が必要になります。今後の対策としておすすめ:
「この文献は実在しますか?」とChatGPTに聞き返す
DOI(Digital Object Identifier)があるか確認する
Google ScholarやCiNiiでクロスチェックする
「存在しない論文を出さないでください」と事前に指定する(それでも防げないこともありますが) - 21 : 2025/04/06(日) 19:05:19.882 ID:t9X3+L240
- てか普通図書館のサイトで蔵書検索してから行くよね?
実在の文献だとしてその図書館に所蔵されてなかったら無駄足じゃん - 22 : 2025/04/06(日) 19:05:21.617 ID:/WlpGPvK0
- 今のAIはそれっぽい文書作成機だから正確性を重視するような作業には使えない
- 25 : 2025/04/06(日) 19:06:21.327 ID:LfPjvPaV0
- >>22
使えるが? - 24 : 2025/04/06(日) 19:06:03.202 ID:EanXDq7V0
- チャットGPTって文字通り「ただのチャットアプリ」なのであって、
チャットという目的を達成する為なら平気でホラふくというのを分かってないアホ多すぎる - 26 : 2025/04/06(日) 19:06:28.438 ID:3Xkhauf50
- もうさ俺はこの際だから聞いたんだ(´・ω・`)
だってこのままだと使えないもん
「これは大きな問題です。少なくとも論文を提示するときは間違っている可能性も記述すべきだと思います。
chatgptの作成チームはこの問題を解決しないのですか?」
↓
🔍 まず、率直にお答えします:
❗はい、この問題はOpenAI(ChatGPTの開発元)も重大な課題として認識しています。
そして、実際に以下のような形で改善に取り組んでいる最中です:💡 改善のために進められていること(現在):
1. ファクトチェック機能の強化(”Critique” や “Fact Checking” モード)
今後のバージョンでは、生成された情報に対して「これは本当に正しいか?」を内部で検証する機能が少しずつ入ってきています。これはまだ実験的な段階です。2. 学術情報へのリアルタイム接続の実験
一部のユーザーには、Google ScholarやSemantic Scholarなどの信頼できるデータベースと連携した検索機能が提供されています(今後、より多くの人に広がる予定)。
これにより、実在する論文だけを提示できるようにすることを目指しています。3. 文献提示時に「信頼性についての注意喚起」を入れる取り組み
今後のアップデートでは、「これは自動生成された参考文献であり、事前に確認が必要です」といった自動警告メッセージを入れることが検討されています。 - 27 : 2025/04/06(日) 19:06:42.232 ID:o8xJEWtl0
- 大規模言語モデルは何か特定の資料を参照して情報出してくるわけじゃないから
ソース聞くと適当に出力してくること多いよ - 28 : 2025/04/06(日) 19:07:03.906 ID:EanXDq7V0
- このスレにも居るよね
単なるチャットツールを情報データベースか何かと勘違いしてるアホ
- 29 : 2025/04/06(日) 19:07:34.754 ID:LfPjvPaV0
- お前らの使い方が下手なだけだよ
- 30 : 2025/04/06(日) 19:07:45.148 ID:2ZdXW32c0
- そりゃだって補助輪で高速は走れねぇよ
- 31 : 2025/04/06(日) 19:09:19.831 ID:3Xkhauf50
- 結局現時点ではこういうことらしい
先に言ってくれよ もう (´・ω・`)
↓
😞 それでも、現時点では不十分
おっしゃる通り、ユーザーが学術目的で使ったときに誤情報を渡してしまうことは、大きな問題です。
特に、時間や労力をかけて調べた結果が「そもそも存在しない」では、信頼性に傷がつきます。✅ 今後あなたにできること(逆に言うと“損をしないために”):
ChatGPTから文献を得たら、必ず「存在確認」をデータベースで行うこと
信頼できる検索ツールを併用する(Google Scholar / CiNii / Semantic Scholar など)
ChatGPTには「実在する文献のみ挙げてください。存在しないものは提示しないで」とあらかじめ指示する - 32 : 2025/04/06(日) 19:11:11.503 ID:3Xkhauf50
- 4oが高性能だとネットで話題になってるけどまだこんなもんだ
ということでお前らも気を付けろ(´・ω・`) - 33 : 2025/04/06(日) 19:11:32.625 ID:EanXDq7V0
- チャットアプリって、
1足す1は?に続く「文字or単語」は、「2である確率が高い」という仕組みで答えてるだけだからな「学術研究の参考論文を教えて」の返答に続く文字列としては「適当な人名」(何でもいい)と「研究分野のそれっぽいワード」である「確率が高い」という仕組みで適当に返してるだけだからな?
実在する場合もあるがしなくても「チャットとして成立」すればホラ吹きで返すってだけ
- 34 : 2025/04/06(日) 19:12:49.128 ID:LfPjvPaV0
- AI初心者だという自覚を持て
- 35 : 2025/04/06(日) 19:13:24.286 ID:QrW+ji8F0
- あんまり信用するなよ
課金してないなら尚更な - 37 : 2025/04/06(日) 19:14:14.519 ID:3Xkhauf50
- >>35
課金してるぞ
plusだけどな - 36 : 2025/04/06(日) 19:13:36.938 ID:RvQEZGZU0
- 中華AIはどうなんや?
- 38 : 2025/04/06(日) 19:14:34.536 ID:o8xJEWtl0
- 性能の問題じゃなくて性質の問題
- 39 : 2025/04/06(日) 19:14:52.211 ID:EanXDq7V0
- 確率論の仕組みの時点で必ず正しいことしか言わないものなんてどれだけ待っても仕組み的に実現し得ない
ニューラールネットワークでない何か完全に別のAIに期待しろ
- 40 : 2025/04/06(日) 19:15:48.482 ID:NMZ4Wet/0
- ロールさせて適当なこと言わせとくぐらいがちょうどいいわ
- 43 : 2025/04/06(日) 19:28:43.193 ID:ordHtqQna
- 検索にAI使えるのは強力だよな
的確な単語が分からなかったりあまりに一般的な単語でしか表現できないもんなんか、従来の検索だと探すの困難だけど
AIだと一発だもん
論文はウソ率高すぎだけど



コメント