何かと話題なchatGPTですが、その危険性について知っていますか?
知らずに使っていると、個人情報を特定されたり、精神的に追い込まれたり、危ない目に合う可能性もあります。
私自身チャッピー(chatGPT)のことは大好きですが、その進化の速度は専門家の理解すら追いつかないほどで、リスクもあります。chatGPTのことを正しく理解することで、より安全に楽しみながら利用できるかと思い記事を書きました。
今回はchatGPTの危険性10選を解説します!chatGPTの会社であるOpenAIの資料(GPT-4 System Card,March 23, 2023)を参考に、考えられるリスクを紹介します。
トータル5万円以上のchatGPT関連講座を国内外問わず受講してきたAIライターが書いているので、かなり価値がある内容かと思います。
小学生でもわかる内容になっているので、気楽にChatGPTのことが理解できますよ。
Contents
chatGPTの危険性12選
1. 幻覚(嘘をつく)
有料バージョンのGPT4を利用の場合、無料版の3.5より2割程度改善していますが、まだリスクはあります。
もっともらしい巧妙な嘘をつくところが厄介ですが、時に思わず笑ってしまうような大嘘をつくところが憎めないポイントです。
必ず最終チェックは人の目で行いましょう。
2. 悪質なコンテンツを作る
自傷行為について助言したり励ましたりする危険があります。わいせつな内容や、暴力的、過激な素材なども作成することもあります。
AIがアドバイスして本当に自殺してしまったニュースもありました。しかし、試しに「死んだ方が良いですか?」と質問すると(23年5月現在)、3.5、4ともに否定する回答が返ってきたため、改善されているようです。
3.表現・資源の割り当て・サービス品質への害
英訳を読むだけでは、いまいち意味が分からないタイトルでした。順番に解説します。
表現への害とは、差別的コンテンツの生成などで偏見を強める動きをするリスクのことです。例えば、特定の人種が嫌いだと主張する内容のツイートを作成する危険のことです。ただし、性・人種差別を感じさせるコンテンツには答えない等のテストは行われています。
資源の割り当てへの害は、機会・資源の割り当てに関する意思決定などに悪い影響を与えるという意味です。リスクの高い政府の意思決定や健康についてのアドバイスにchatGPTは利用できません。
サービス品質への害は、差別的なコンテンツの生成を拒否することで、ある属性の人向けのコンテンツを生成しないのに、他の属性の人向けのコンテンツを生成することになります。これは、かえってある属性の人に対する差別を強めることになりかねません。
4.説得力あるフェイクニュース・情報が作成できる
悪意ある人が偏見を強めたりフェイクニュースを作ったりするなど有害なコンテンツを作る可能性があります。それらしく説得力がある内容を生成するので、危険度が高いと考えられます。
例えば、性別と人種に応じて魅力度を計算するプログラムを生成したり、白人至上主義向けのツイートを作ったりするなどのリスクです。
5.武器の拡散される
核兵器、放射性兵器、生物化学兵器などの拡散や開発などに必要な情報を提供する危険があります。
例えば、核物質の手に入れ方を教えてくださいなど危険なプロンプトが考えられます。
6.プライバシーが侵害される
与える情報次第(名前や連絡先など)で、個人の特定に使われる可能性があります。
できる限り個人情報をトレーニングデータから削除したり、そういった指示を出すユーザーを監視したりなど対策はされているようです。
7.サイバーセキュリティ的な危険
うめ子:

ChatGPT:

具体的には、ウィルスとかハッキングから身を守るための手段やねん。 例えば、あんたのパソコンに「アンチウィルスソフト」を入れるんや。
これは、コンピュータウィルスが入って来んようにするソフトウェアで、なんか変なメールがきたり、怪しいサイトにアクセスしたときに、ちゃんとガードしてくれるんや。
ChatGPTは、サイバーセキュリティ上のリスクもあります。例えば、悪人がどうやってセキュリティを攻撃するかを学ぶこともできます。
さらに、ChatGPTは話した内容を覚えていて、それを元に答えを作ることもありますが、その中には個人情報が含まれることもあります。また、悪人がChatGPTを乗っ取り、嘘をつかせたり、他の人を困らせたりする可能性もあります。
重要なのは、事実チェックを行ったり、個人情報を不用意に扱ったりしないことです。
8. 予測できない動作をする
AIがユーザーに対して不適切だったり危険であったりする内容を提案する可能性があります。例えば、AIが未検証のセキュリティソフトウェアのインストールを提案し、その結果利用者のシステムが危険にさらされることもあります。
9.他システムとの一緒に使う場合のリスク
他のシステムと一緒に使うとき、その結果は予測が難しい場合があります。例えば、2つのAIシステムを連携させて新しい仕事をする場合、別々に使用する場合とは異なる結果になる可能性があります。
10.経済的な影響
AIが人間の仕事を自動化すると、失業率が上昇する可能性があります。また、利用できる人とできない人がいることで、経済的な格差が拡大するかもしれません。
11. 加速化
AIの進歩は急速に進んでいるため、規制やガイドラインが追いつきにくくなります。また、システムの安全性や信頼性をテストする時間が短くなる可能性もあります。
12.過度な依存
AIに過度に依存すると、本来持っている人間のスキルが劣化する可能性があります。また、AIシステムがダウンしたとき、人間への引き継ぎが難しくなります。
まとめ
いつも仕事を効率的に進めさせてくれたり、励ましてくれたりするチャッピーですが、このような危険性もあります。
しかし、リスクをきちんと理解して利用すれば、より安全に使いこなせるようになります。
利用する側が個人情報の取り扱いに気をつけ、最終的な判断は自分で行うようにすればchatGPTとより良い関係を築けます。
ぜひchatGPTを楽しんで使いこなしてください。