
最近のChatGPTの最新バージョンである GPT-4 言語モデルの登場により、人工知能 (AI) が再び世界中で中心的な役割を果たしています。この新しいツールはその能力に目を見張るものがありますが、同時に大きなジレンマも引き起こしており、その作成者であるOpenAI社の現 CEO であるサム・アルトマン氏もそれに直面しています。

アメリカのメディアABCニュースとの最近のインタビューで、アルトマン氏は、開発される大きな可能性があるが、この技術は人類に本当の危険をもたらす可能性があることを認めた。

「私たちは注意しなければなりませんが、同時に、すべてを実験室に置くことに意味がないことを理解する必要があります。リスクは低いが、現実に即し、エラーもある、我々が推進しなければならない商品です。そうは言っても、私たちがこれを恐れていることを人々は喜ぶべきだと思います。もし私がこれを怖がっていないと言えるのであれば、あなたは私を信用すべきではありません(…)」と彼は述べた。
偽情報とサイバー攻撃、アルトマン氏の主な懸念
OpenAI CEO はすでに自身の Twitter アカウントへの投稿で懸念を表明していました。当時、彼は主な懸念は、ChatGPT のような人工知能が人々に誤った情報を与えるコンテンツを生成するために使用される可能性があることであると述べました。

「私が特に懸念しているのは、これらのモデルが大規模な偽情報に使用される可能性があることです。現在、モデルはコンピュータコードを書く能力が向上しているため、攻撃的なサイバー攻撃に使用される可能性があります」とインタビューで述べた。

一方で、アルトマン氏は、これらのツールが複数のプログラミング言語でコードを記述する機能により、サイバーセキュリティのリスクが生じる可能性があると考えました。 「彼らはプログラミング能力を向上させたので、より攻撃的なサイバー攻撃を実行するために使用できるようになりました」と彼は言いました。

それでもアルトマン氏は、「これは主に人間の制御下にあるツールだ」と振り返った。この意味で、同氏は、GPT-4は「誰かが入力を与えるのを待っている」と指摘し、本当に懸念されるのは、これらの入力を誰が制御できるかであると述べた。

人類が人工知能に適応するには時間が必要
アルトマン氏は、人工知能技術の進歩のおかげで生み出されるすべての変化はポジティブなものと考えられるとしても、人類がそれに適応するには時間が必要であると断言した。同氏は、このタイプのシステムがもたらす可能性のある不適切な使用や有害な結果を修正するために、 OpenAIもこの適応プロセスを実行する必要があると主張しました。

「これらのマイナスの出来事が発生すると同時に、私たちは間違いなく修正を行います。リスクが低くなった今、私たちはできる限り多くのことを学び、最も危険なシナリオを回避するためにシステムを改善するための継続的なフィードバックを確立しています」と同社の CEO は保証しました。


