Webpage of GPT-3
Tada Images / stock.adobe.com、ZUU online

「AIの時代が始まった」

発表後わずか5日間でユーザー数が100万人、2カ月後には1億人を突破するなど、驚異的に普及しているAI(人工知能)「ChatGPT」。オープンAIが2022年11月末に発表した生成AIである。

これまでのAIは、操作にプログラミング言語が必要で、いわゆるプロにしか使いこなせなかった。ところがChatGPTは、普段話す言葉(自然言語)でAIと「コミュニケーションが取れる」ため、誰でも使うことができるというもの。そのため、「AIの民主化を進めたもの」と評される。

もちろんこれまでも、チャットや音声などで話しかけられるAIは存在した。しかしChatGPTは与えられたデータを元に新たなデータを作り出すことができるため、まるで人間同士がコミュニケーションしているかのように文脈を捉えた自然な感じのやり取りができる。そういう意味で生成AIと呼ばれている。

こうしたことが可能になったのは、インターネットで収集した膨大な言語データをもとに事前トレーニングを行う大規模言語モデルを登載したため。このモデルは、膨大な量の文章や単語を学習することによって、AIが単語の意味や関係性を捉えることができるというものだ。

つまり、厳密にいえばAIがコミュニケーションをとっているわけではなく、文脈から判断して最も高い確率で使われる言葉を膨大なデータから統計的に予測しているのだ。データ量や処理能力、そして学習量が飛躍的に向上し、複雑な問題解決が可能となったことから、まるで人間と会話をしているかのような感覚が得られているわけだ。

ChatGPTを使えば会議の議事録の作成やテープ音源からの原稿作成、メール文面の自動作成といった作業の効率化を図ることはもちろんのこと、ニュースや論文からリポートを作成したり、法務や経理といった専門分野の相談を行ったりといった作業の高度化も図ることができる。

そのインパクトは大きく、マイクロソフトの創業者であるビル・ゲイツ氏をして「AIの時代が始まった」「産業全体が方向転換を迫られる」と言わしめた。

マイクロソフト vs. グーグル

生成AIの代表格ともいえるChatGPT。その「破壊力」は凄まじく、IT界の巨人たちもその技術動向を強烈に意識している。

マイクロソフトは、2019年にChatGPTの開発元で非営利研究機関のオープンAIに出資し、今年1月にも追加出資を行うと宣言。その後、WebブラウザのEdgeと検索エンジンのBingにAI機能を搭載した。

オープンAIが3月に最新版のGPT-4を公開すると、その2日後にマイクロソフトのワードやエクセルといった定番アプリで活用できる「Microsoft 365 Copilot」を順次提供すると発表している。つまりマイクロソフトは、ChatGPTを取り込む戦略というわけだ。

それに対してグーグルは慎重だ。というのも後述するように、生成AIはユーザーのプライバシー保護等、倫理面の課題がまだクリアになっていないためだ。とはいえ、2017年にもともと大規模言語モデルの開発に先鞭をつけていたのはグーグルで、人間が日常的に使う言葉を統計的に解析できるよう数値に変換し、コンピューターが理解できるようにする自然言語処理の能力を飛躍的に高めるなど積極的だった。

そのためマイクロソフトの攻勢を受け、グーグルも反撃を始めた。今年2月には対話型AIサービスBardのテスト公開をスタート。クラウドサービスのGoogle Workspaceでも自然言語処理を組み込んでいく意思を示している。

企業の活用も始まる

ChatGPTを始めとする生成AIをめぐっては産業界も意識しており、早速活用している企業も存在する。たとえばパナソニックコネクトは今年2月から、全社員を対象にAIアシスタント機能を導入。メール返信や、議事録、レポートなどの作成からITサポート、リスクや専門的なアドバイスに至るまでさまざまなことに対応し、生産性の向上を図っている。

電通デジタルはオンライン広告の作成というクリエイティブな分野でも生成AIを活用している。通常の広告と違ってインターネット広告はスピードと量が命。そのため、短時間で数多くの広告を作成しなければならない。そこで商品を訴求するためのキーワード抽出やクリエイティブ生成などで生成AIを使っているという。

こうした取り組みは2社だけではない。それ以外の企業でも自社の商品やサービスにおいて生成AIを活用できないか模索中だ。

フェイクニュースを検証できないリスク

とはいえChatGPTが万能かといえばそうでもない。たとえば誰かが、「●●に関するいかにも本当っぽいニュースを書け」とChatGPTに命じたとしよう。その結果ChatGPTが作った大量のフェイクニュースが世界にばらまかれたら人間のチェックは間に合わず、誰にもファクトチェックができないという事態に陥る可能性もあるのだ。

たとえニュースメディアやIT企業がそうした目的には使わないと言ったとしても、悪意ある人物がChatGPTの作ったフェイクニュースをばらまいてしまえば、意味をなさなくなってしまう。選挙に勝つためにライバル候補に関するフェイクニュースを大量に作らせてばらまくといった政治目的で使われる懸念もある。グーグルの懸念も、こうした点にあるのだ。

爆発的に普及しているChatGPTだが、まだ産声を上げたばかりの「未成熟なもの」と考えたほうがいい。それだけに、便利さだけを追求するのではなく、リスクも見据えたしっかりとした議論が求められている。