現時点では『それっぽい事を言って答え合わせしてみるとめっちゃ外れてたり、一部外れたりするが、それっぽい回答』をすることで専門的に習っている人には見抜かれてしまうという、"もし職場にいたら、それらしいことを専門部署外に言っている人が、専門部署に話が回って噂を耳にした同僚達が、答え合わせしたらめっちゃ間違っていて無能でヤバい奴w"というレッテルを貼られてしまいそうなChatGPTだが、
まだ学習が必要な段階と今は試験段階だからこれから劇的に学習していって良い意味でヤバいことになりそうと個人的に思うchatGPTですが、世の中は試験リリース5日で100万ユーザー突破という異例の速度で世界中の関心を集めているchatGPT。
今のところ試験運用でのちのち有料化していくかもしれないが、個人的にはもう少し洗練されてくれたら有料化の道でもいいと思う。
なんて言ったって、今は不正確な情報をあたかも正しいことのように文章を作ったりしてしまうと、その情報が正しい情報として拡散してしまう恐れがあるし、AIに責任を取らせることは現時点で不可能だと思うから全面的にAIの責任問題は最終的に責任者に責任がいく。現実的なのは、そのAIを作った責任者に責任をとってもらう事だと思うが、そこまでのリスクはいくらopenAI研究所の方々であっても取りたくないんじゃないかと思う。
とはいえchatGPTのサイトは定員に達していることが多いほど人々の興味関心を掻き立ててやまない存在で、人類がAIにどれだけ希望を抱いているかの表れでネット上の記事にはGOOGLEが非常事態宣言を出したり、今の既存の広告ビジネスモデルや様々なビジネスモデルを根幹からひっくり返すんじゃないかとの記事まで出ていたり、かなりの話題になっている。が、そもそも
未来のことは分からない
もちろん予測することは〇〇予報などの専門家の意見を聞くのが一番だと思う。AIはこれからの進化のスピードが速いので、専門家もAIを使いつつ、責任ある立場から正解に近い答えも適材適所でツールとしてAIを使うのが良いと思う。なんせ得意分野では、
生き物には得意、不得意はあるように、AIであるChatGPTにしても往々にしてそれはある。もちろんプログラミングでも間違ってたりするので、そこは今のところは適宜人間が直していったらいい話だとおもう。人間が行うプログラミングでも間違いはあるし(むしろその方が多い時も)、そもそもAIで完成品を最後まで人間が仲介しないで完成品を出荷するなど、当分こないだろう。完成品のテスト何回もして市場に出して良いかを判断してOKならリリースという形が当分続くと思う。それがAIを適宜使うことで正解にたどり着く時間が格段に上がったと思う。これからどんどん進化していって予測できていく未来は見えそうに感じた。これからどう進化していくのか楽しみです。