ChatGPTに自分の書いたブログ記事のURLを送り、要約・感想を書いてもらおうとした。
う、うーん? なんか微妙にズレている気がする。
ちゃんと読めてるのか、最後の3行を聞いてみた。
最後の3行は以下の内容です。
「自責思考は自己成長には重要ですが、他者に押し付けるのは避けるべきです。柔軟な思考を持ち、他者を理解することが大切です。」
そ、そんなこと書いてない・・・!!
目次
ハルシネーション(幻覚)について
Chat GPTがそれっぽい嘘を返すこと。
ネット上ではちょっと難しい歴史の問題を出すと嘘が返されやすいとあったが、「単純なテキストデータしかないURLを提供した上で、URL上の情報をまとめてほしい」という依頼でも嘘を返されるケースがあると最近気づいた。
対応
記事全文をコピペして、その上で要約を求めると正常に動作する。
いくらか質問して切り分けると、以下の挙動をしているっぽい。
①webにアクセス→文章をインポートするところで問題が起きている
②文章がインポートできていないのに要約し、足りない部分を想像で補完する
③自分が想像で補完していると、2024/06/01時点でChatGPTは自覚を持つことができない(想像して書いているときは言ってと指示しても正常に動作しない)
感想
半年後には良くなってることを祈る。結局人間のチェックが大事だね!