一般社団法人 The Japan Society of Mechanical Engineers

メニュー

No.214 我々は大規模AIを使いこなせるのか
2022年度編修理事 小原 拓 [東北大学 教授]

JSME談話室「き・か・い」は、気軽な話題を集めて提供するコラム欄です。本会理事が交代で一年間を通して執筆します。


2022年度編修理事 小原 拓 [東北大学 教授]

No.214 我々は大規模AIを使いこなせるのか

 

 


本欄の前号で松本理事が書かれていますが、ChatGPT[1]が大きな話題となっています。大規模言語モデル(機械学習により獲得した言語データ)と呼ばれるGPTが極めて優れた言語能力を提供し、現在は有料で提供されているGPT-4は、アメリカの司法試験の模擬試験で上位10%の成績を取れることが一般紙でも報道されています[2] [3]。先代のGPT-3では下位10%だったそうですから、急速な発展ぶりで、知的能力は人間に並び、その成長は人間よりはるかに速い「Generative(生成)AI」がにわかに大きなキーワードになってきました。

その活躍を見るにつけ、人間でも機械でも、やはり社会に受け入れられるにはコミュニケーション能力が重要だったのだと改めて気づかされます。こちらの質問を理解し該博がいはくな知識をもっているだけでなく、文章を書いたり文字を使う作業を頼めたりできるところが使い勝手が良く、例えば私がある委員会の委嘱状を英文で出さなければならなかったときには、任務、任期など必要な項目を全て書きだした立派なサンプルを作ってくれました。こちらはこのまま使いましたが、調子に乗って次に推薦状を頼んでみたら、こちらが言ってもいないのに「熱意をもって研究に取り組み」とか「周囲と協調し」などと褒め言葉を勝手にちりばめてA4の1枚一杯に書いてくれました。このときは、このような言葉はもはや推薦状では何の意味もない(機械が勝手に書ける美辞麗句など、何の意味があるでしょう?)ことを悟り、ゼロから自分の手で書き直すことにしました。当たり前ですが、この種の文章は、網羅的に取りこぼしのない文章よりも、気持ちが入っていることが重要です。

他に、例えばリストや表を作るような作業は、適切に指示すれば過不足なくしてくれます。この「適切に指示」の部分は、まさに自然(人間の)言語によるプログラミングですが、複雑な作業や知識の取り出しについてどのような「プログラミング」をすれば良いか、いま多くの人々が面白がって試行錯誤しつつ、隠れた才能?を次々と発掘しています。

ちなみに、「日本機械学会の会員として、学会の発展に貢献する方法を教えて下さい。」というシンプルな質問には、特に深い内容ではないものの、5項目も挙げてくれました。「会員」を「理事」に替えると、答えもしっかり変わりました。言い回しは最も学習量が多いであろう英語だけでなく日本語でもなめらかで、この分ではごく近い将来、「某学会某部門の部門長某氏は、部門評価の書類をChatGPTに書かせた」などという話も、あながち冗談だと笑えなくなってくるでしょう。

最近は様々な特徴をもつAIツールが多数提供されています。私が試したものだけでも、Grammarly[4]やDeepL[5]など翻訳・校閲の定番だけでなく、校閲ならacademic writingに特化したPaperpal[6]やTrinka[7]、質問に対して関連する論文を検索して短い要約と共に示すElicit[8]、質問に対する回答に加えて論文など根拠を示すPerplexity[9]、論文中の単語群について簡単な説明を示すExplainpaper[10]などがあります。ツールを収集しているサイト[11]には、この稿をまとめている2023年4月1日現在で2,918個のAIがリストされています。

さて、これほど該博な知識をもって流暢な言葉を使えるならば、論文の執筆においてかなりの貢献が「できてしまいそう」です。昨年11月の時点で、大規模言語モデルによるチャットボットが様々な研究用途に利用されていることが紹介されています[12]。2023年に入ってからは、ChatGPTを著者の一人として加えた論文が出版済み・査読中・アーカイブなど様々な段階で既に存在していることが報告されました[13]。この報告の中で例として挙げられている論文[14]では、ChatGPTがその長い本名で第一著者として記載され(ただしCorresponding authorではない)、最後のAuthor contributionsのセクションでは「著者」の貢献と「著者」になった経緯が詳しく説明されています。この論文はこのまま維持されているようですが、別の例[15]では、出版社のガイドラインに沿ってChatGPTを著者から外すCorrigendum[16]が出ています。

学術出版を手掛ける機械学会も他人事ではありませんが、この問題に対する4大学術出版社の対応は2023年3月までに出揃いました。Springer-Natureの声明[17]では、学界におけるChatGPT等の利用で懸念される点として、学生や研究者が大規模言語モデルが書いた文章を自身の文章と偽ったり、信頼できない論文等を作成することを指摘した上で、(1)大規模言語モデルによるツールは説明責任をとれないことに鑑みて、これを研究論文の著者としない、(2)大規模言語モデルによるツールを執筆に用いた場合には、このことをacknowledgement他のセクションで述べる、の2点を求めています。ScienceのEditor-in-Chief声明[18]はより直截な表現で、(1)ChatGPT他が生成した文章を論文中で使用してはならない。図・画像・グラフィックスなども同様である、(2)AIプログラムは著者になれない、とした上で、これらのポリシーに違反することは画像の改変や既存の論文の盗用と何ら変わらない研究不正となる、と述べています。英語の能力を補うためにDeepLやGrammarlyに相当程度依存している我々にとっては、上記(1)に対応するためには、何が良くて何がいけないのかという線引きの論理を深く理解する必要がありそうです。このあたり、Elsevierのポリシー[19]はもう少し詳しく書いてあり、AI技術は論文の読みやすさと言語(の質)を向上させるためにのみ用い、データの解釈や結論をまとめるようなことには使用しない、AIのアウトプットは著者が責任をもって確認する、著者の責任は人間だけが負えるため、AIを著者にしない、AIまたはAI援用技術を用いた場合はその旨を開示すること、などを著者に求めています。Taylor & Francisの声明[20]はSpringer-Natureに近いものです。

これらのポリシーはいずれにしても将来は微調整がありそうですが、AIや大規模言語モデルが学問にもたらす利益と弊害がもう少し定まるまでは、論文の執筆に当たってはやや慎重な対応が必要になりそうです。GTPが生成した文章を検出するためのツールもいくつか出ていますが[21]、現状では感度も特異度も満足できるものではないように思われ、いずれにしても検知する側と逃れようとする側の追いかけっこになるでしょう。

一般社会では、もともと、「知らないことに平気でウソをつく」不気味さといった感覚的な違和感がChatGPTにはある上に、確かな根拠はまだないようですが、最近の急激な学習規模の増大によりAIの発展が何らかの臨界点を超えたのではないかという話もあり、「シンギュラリティ」や「相転移」などという言葉を再び目にすることが多くなっています。AI研究が制御不能な競争になっていることを訴えて開発を半年間停めることを求める文書[22]にユヴァル・ノア・ハラリ氏やイーロン・マスク氏、スティーブ・ウォズニアック氏など様々な分野の著名人が多く賛同していること[23] [24]や、趣旨はやや異なってGDPR(一般データ保護規則)関係のようですが、イタリアでChatGPTのサービスが停止されたこと[25]が一般紙でも直近のニュースになりました。

いま気づきましたが、マシンラーニングと本会とは、同じ「機械」を掲げているのでした。あちらにとってはただの手段・媒体、こちらにとっては研究対象そのものであるわけですが、我々技術者としては、あちらの「マシン」に深く関与せざるを得ないのでしょう。敬遠するにはあまりに魅力的で、活用しなければ競争に敗れるという圧迫があるからです。ただし、大きな社会問題や、自分の存在が問われるようなことについては、客観的な判断だけでなく個々人にある種の決意が伴うだけに、人間が自分で考えて結果を自分で引き受けるしかなさそうです。ふと我に返ると、足元の日本社会を見ても、学問の自由自律の危機すら感じる学術会議の問題や、原発、「敵基地攻撃能力」など、これまでの土台が大きく変わる事態が続いています。AIのテクノロジーに高揚しているだけでなく、自分の頭も鍛えなければと自らを戒めています。


脚注

[1] https://chat.openai.com/

[2] OpenAI「GPT-4」発表 精度向上、司法試験で上位10%, 日本経済新聞電子版, 2023年3月15日,

https://www.nikkei.com/article/DGXZQOGN1507H0V10C23A3000000/

[3] チャットGPT、新モデル発表 「GPT4」 画像で質問可能に, 朝日新聞電子版, 2023年3月21日, https://digital.asahi.com/articles/DA3S15587095.html

[4] https://app.grammarly.com/

[5] https://www.deepl.com/translator

最近、英文校閲機能(https://www.deepl.com/write)が加わりました。

[6] https://paperpal.com/

[7] https://www.trinka.ai/jp/

[8] https://elicit.org/ 私はいま最も頻繁に使用しています。

[9] https://www.perplexity.ai/ 質問・依頼に対する回答という動作はChatGPTと同じ作りですが、根拠となる論文他を示してくれるので、真偽をチェックできます。

[10] https://www.explainpaper.com/ 論文のPDFを読み込ませると、論文中の任意の単語群について、一般知識および論文内の記述に基づいた説明を表示してくれます。不案内な分野で略号の頻発する論文など読むときに重宝します。査読やプロポーザルの評価をするときなどにも便利なのですが、これらのアップロードは秘密保持上の懸念があり、控えるべきと思います。

[11] There’s an AI for that, https://theresanaiforthat.com/

[12] Matthew Hutson, Could AI help you to write your next paper?, Nature, Vol. 611 (2022), pp. 192-193.  https://www.nature.com/articles/d41586-022-03479-w

[13] Chris Stokel-Walker, ChatGPT listed as author on research papers, Nature, Vol. 613 (2023), pp. 620-621, https://www.nature.com/articles/d41586-023-00107-z

[14] ChatGPT Generative Pre-trained Transformer and Alex Zhavoronkov1, Rapamycin in the context of Pascal’s Wager: generative pre-trained transformer perspective, Oncoscience, Vol. 9 (2022), pp. 82-84.

https://doi.org/10.18632/oncoscience.571

[15] Siobhan O’Connor and ChatGPT, Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?, Nurse Education in Practice, Vol. 66 (2023), 103537. https://doi.org/10.1016/j.nepr.2022.103537

[16] Siobhan O’Connor, Corrigendum to “Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?” [Nurse Educ. Pract. 66 (2023) 103537], Nurse Education in Practice, Vol. 67 (2023), 103572.

https://doi.org/10.1016/j.nepr.2023.103572

[17] Editorials, Nature, Vol. 613 (2023), p. 612.

https://www.nature.com/articles/d41586-023-00191-1

[18] H. Holden Thorp, Editor-in-Chief, Science journals, ChatGPT is fun, but not an author, Science, Vol. 379 (2023.1), p. 313.

https://www.science.org/doi/10.1126/science.adg7879

[19] Elsevier, Publishing Ethics for Editors, Duties of Authors, The use of AI and AI-assisted technologies in Scientific writing,

https://www.elsevier.com/about/policies/publishing-ethics#Authors

[20] Taylor & Francis, ”Taylor & Francis Clarifies the Responsible use of AI Tools in Academic Content Creation”, https://newsroom.taylorandfrancisgroup.com/taylor-francis-clarifies-the-responsible-use-of-ai-tools-in-academic-content-creation/

[21]例えば、AI Text Classifier: https://platform.openai.com/ai-text-classifier,

GPTZero: https://gptzero.me/, GTP Detector: https://x.writefull.com/gpt-detector,

DetectGTP: https://detectgpt.ericmitchell.ai/ など

[22] Pause Giant AI Experiments: An Open Letter

https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[23] マスク氏ら1000人超「AI開発、半年停止を」 「人類に深刻なリスク」 公開書簡, 朝日新聞電子版, 2023年3月31日

https://digital.asahi.com/articles/DA3S15597339.html

[24] 高度なAIの開発中断、マスク氏ら要求 慎重論の背景は?(解説記事), 日本経済新聞, 2023年3月30日

https://www.nikkei.com/article/DGXZQOUC301UR0Q3A330C2000000/

[25] ChatGPT、イタリアが一時禁止 米では差し止め要請, 日本経済新聞電子版、2023年4月1日

https://www.nikkei.com/article/DGXZQOGN31DUY0R30C23A3000000/