高等教育におけるAI時代のコース設計と提供方法:試験データ分析からの知見(How to Design and Deliver Courses for Higher Education in the AI Era: Insights from Exam Data Analysis)

田中専務

拓海先生、お忙しいところ失礼します。部下から「AI対応の試験設計が必要だ」と言われまして、正直何から手をつければいいのか見当がつきません。要点だけ端的に教えていただけますか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫、一緒に整理すれば必ずできますよ。まず結論を三行でお伝えしますと、(1) 教えるべきはAIではなく人間の思考の強化、(2) 試験はAIの強みと限界を踏まえて再設計する、(3) 授業は対話型でAIを活用させることです。

田中専務

なるほど、結論ファーストですね。実務で気になるのは投資対効果です。具体的には現場の時間とコストをどれだけ節約できて、学習効果は落ちないのか、そこを知りたいのです。

AIメンター拓海

投資対効果の懸念はもっともです。まずは短い実験から始め、AIを“補助ツール”として使うことで教員の採点・フィードバック時間を削減できる可能性があります。次に、学習効果が低下しないように、AIが得意な事(事実の整理やドラフト生成)と不得意な事(批判的思考や根拠の提示)を区別して評価設計をする必要があります。

田中専務

それだと、具体的にどのような試験や課題に変えれば良いのでしょうか。現場の負担を増やさない範囲で改善したいのですが。

AIメンター拓海

良い質問ですね。簡単な例で言えば、事実確認や要約はAIに任せ、学生にはその出力に対する批判や改善提案をさせる形式です。こうすると学生はAIの出力に依存せず、自分で評価する力を鍛えられます。要点は三つ、出力の検証、根拠の提示、応用の実演です。

田中専務

これって要するに、AIで答えを出させて終わりにするのではなく、学生がAIの答えを批判・改善する力を評価するということですか。

AIメンター拓海

まさにその通りです!素晴らしい理解です。付け加えると、AIの限界は常に変わるため、教員も継続的にAIの挙動を観察し、出題と評価方法を更新していく必要があります。短いPDCA(Plan-Do-Check-Act)サイクルを回す感覚です。

田中専務

実際のデータで効果が示されているのでしょうか。部下はChatGPTという言葉を出してきますが、使っても成績が上がるのか下がるのかの根拠を示したいのです。

AIメンター拓海

良い着目点ですね。実際の試験データでは、ChatGPT(ChatGPT)やLLMs(Large Language Models – LLM – 大規模言語モデル)を使ったかどうかと成績の相関は必ずしも高くなかったという報告があります。重要なのはツールの有無ではなく、評価設計が学生の思考力を測るかどうかです。

田中専務

分かりました。まずは小さく試して見える化する。評価はAIの出力を検証する力を測る。投資対効果は短期で見るべきだと。

AIメンター拓海

その通りです。最後に要点を三つだけ持ち帰ってください。第一に、教育の目的は人間の判断力を高めること、第二に、試験はAIの強みと限界に合わせて再設計すること、第三に、小さな実験で早く学び改善することです。大丈夫、一緒にやれば必ずできますよ。

田中専務

先生、ありがとうございます。私の理解を確認させてください。要するに、AIは使っても良いが、評価はAIが出した答えをそのまま評価しないこと、学生にはAIの出力を批判・改善する力をつけさせること、そして小さな実験でPDCAを回す、という理解でよろしいです。これなら部下にも説明できます。

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む