1: 名無し募集中。。。 2024/01/19(金) 21:44:14.76
https://www.itmedia.co.jp/news/articles/2401/17/news105.html
企業へのAI導入コンサルティングなどを手掛けるLifePrompt(東京都千代田区)は1月16日、先日行われた大学入試共通テストを3つのチャットAIに解かせた結果を「note」で公開した。
企業へのAI導入コンサルティングなどを手掛けるLifePrompt(東京都千代田区)は1月16日、先日行われた大学入試共通テストを3つのチャットAIに解かせた結果を「note」で公開した。
「やはりGPT-4はバケモノだった」という。
テストを解いたのは、米OpenAIの「Chat GPT」(GPT-4)、米Googleの「Bard」、米Anthropicの「Claude2」。
テストを解いたのは、米OpenAIの「Chat GPT」(GPT-4)、米Googleの「Bard」、米Anthropicの「Claude2」。
1月13日と14日に行われた2024年大学入試共通テストのうち、国語、英語(リーディング)、数学など5教科7科目に挑戦した。
テキストか画像で試験問題をAIに入力し、テキストによる出力結果を元に答え合わせをした。
結果はChat GPT(GPT-4)がダントツ。
結果はChat GPT(GPT-4)がダントツ。
数学以外の科目で受験者の平均を大きく上回った。
Claude2も複数の科目で平均以上の点数を出した。
ただし数学科目については、特殊な解答形式に対応できず、いずれのAIも点数が伸びなかった。
結果についてLifePromptは、1)GPT-4は生成AIとしての性能がシンプルに高い、2)他のAIに比べてプロンプトや効果的な活用方法が研究されているため、ポテンシャル発揮率が高かったと分析する。
「とりわけリンク化された画像を読み取る性能や、解釈が定まっている事実を的確に取り出す能力の高さは、社会や理科を回答させている中で実感できるレベルだった」という。
結果についてLifePromptは、1)GPT-4は生成AIとしての性能がシンプルに高い、2)他のAIに比べてプロンプトや効果的な活用方法が研究されているため、ポテンシャル発揮率が高かったと分析する。
「とりわけリンク化された画像を読み取る性能や、解釈が定まっている事実を的確に取り出す能力の高さは、社会や理科を回答させている中で実感できるレベルだった」という。
【大学入試共通テスト、生成AI競演でGPT−4が圧勝】の続きを読む