パネルディスカッション

石原 直子 氏

藤澤 優 氏

山本 龍彦 氏

川口 大司 氏

Dr.Stijn BROECKE

山岡 晋太郎 氏

伊達 洋駆 氏

パネリスト(五十音順)
Stijn BROECKEステイン・ブロッケ
OECD雇用労働社会問題局 スキル・未来準備課 シニアエコノミスト
石原 直子
株式会社エクサウィザーズ はたらくAI&DX研究所 所長
川口 大司
東京大学公共政策大学院 院長
藤澤 優
株式会社デンソー 人事企画部 担当係長
山岡 晋太郎
ライオン株式会社 デジタル戦略部
山本 龍彦
慶応義塾大学大学院 法務研究科 教授
 
コーディネーター
伊達 洋駆
株式会社ビジネスリサーチラボ 代表取締役
フォーラム名
第143回労働政策フォーラム「安全で信頼できるAIによって支えられた人間中心の職場形成に向けて─OECD報告書を踏まえた展望─」(2026年1月20日)

議論するテーマ

伊達 戸田さんの基調講演、そして山岡さんと石原さんの各報告から、議論の土台となるファクトや論点がいくつか出てきたのかなと思います。例えば、日本のAI利用率が諸外国と比べて低い一方、現場では具体的な導入と人材育成が進みつつあるというお話が山岡さんからありました。また、AI時代における組織のあり方やAI人的資本といった新しい考え方について、石原さんからお話をいただきました。これらの点をふまえてパネルディスカッションを行っていきたいと思います。

本日は、非常に多彩な背景を持っている方々がパネリストとして参加しています。ですので、何か議論を1つの結論として収束させるといった類いのものではありません。何か正しい答えにたどり着くといったことよりは、本日の「安心で信頼できるAIによる人間中心の職場」といったテーマに対して、さまざまな観点からその課題の解像度を高めていくことができればと思っています。

大きく3つのセッションに分けて進めていきます。最初のセッションでは、「なぜ日本は職場でAIを使わないのか」をテーマに、現状分析から始めたいと思います。昨今は人手不足が叫ばれていますが、そのなかでもAI導入に企業が慎重である背景、さらには、アクセスの格差といった問題についても議論していきたいと思います。

セッション2では、AIがもたらすさまざまな影響について議論します。例えば、日本企業の多くを占める中小企業におけるAIの活用や、労働者にとって身近で関心のあるテーマである賃金やスキルについても取り上げていきます。

最後のセッション3では、解決策を少し模索できればと思っています。AIがもたらすポジティブな効果を最大化していくためには、いったいどうすればいいのか。特に企業内での教育訓練や労使コミュニケーションのあり方や、AI活用のリスク・信頼感をどのように扱っていけばいいのか、議論できればと思います。

セッション1:なぜ日本は職場でAIを使わないのか

日本企業がAI導入に踏み切れない理由

伊達 ではセッション1に入ります。戸田さんの基調講演のなかで、興味深い数字があげられていました。日本の職場におけるAIの利用率が諸外国に比べ低く、8.4%とのことでした。深刻な人手不足にある現状の中で、なぜAIの利用があまり進んでいないのか、また、使っている人と使っていない人の間にどういう格差が生まれつつあるのか。こうした点を議論していきたいと思います。

まず、ブロッケさんにうかがいます。諸外国の企業と比較して、日本の企業が導入に踏み切れない障壁をどのように分析されていますか。

AIを採用していない理由のトップはコストで、次が従業員のスキル不足が障壁

ブロッケ さまざまな調査結果が戸田さんから紹介されました。これは、OECD事務局が2022年に行った調査の延長線上にあるもので、OECD調査ではドイツ、オーストリア、イギリス、アイルランド、アメリカ、カナダ、フランスの7カ国を対象としました。7カ国で5,000人の労働者と2,000人の雇用主をカバーしました。OECD調査もふまえ、AI導入にあたって日本で生じている障壁について、私の考えをお話ししたいと思います。

まず、製造業と金融・保険業という2つのセクターで調査しました。2022年の時点では、AIは今ほど知られていなかったので、AIの導入が早かった2業種の具体的なAIの利用等について調査したわけです。AIを導入していない企業に対し、その理由を聞くと、1つがコストの大きさでした。ChatGPTは、この時期にまだ台頭していませんでした。2つめの理由は、従業員のスキル不足であり、これがAI導入の障壁としてあげられています。3つめの理由は、AI技術自体の安全性や信頼性に納得していないということでした。小さな理由として2022年によく指摘されたのは、規制でした。今では、ヨーロッパではAI法がありますし、プラットフォームに関する指令もあります。

中小企業に多かった「生成AIは自分たちの仕事には役に立たない」との回答

もう1つ、OECD事務局では、日本も参加した中小企業(従業員250人未満)を対象とした生成AIに関する調査があります。日本以外では、オーストリア、カナダ、ドイツ、アイルランド、韓国、イギリスが参加しました。これらの国々の約3の1の中小企業が、生成AIを使っていたのですが、生成AIの使用率が最も低いのが日本でした(最も高いのはドイツ)。

どういう障壁が中小企業にあったのか。まず、「生成AIは自分たちがやっている仕事には役に立たない」という回答でした。2つめが、法的な問題。このほかでは、学習データについての懸念や、生成AIに入れたデータがどうなるのかが心配だということでした。また、50%以上の中小企業が、従業員のスキル不足が障壁と答えました。

これらの調査結果をまとめると、AIの導入コストとともに、従業員のスキル不足も大きな障壁と言えます。特に、日本の多くの中小企業があげた障壁は、従業員のスキル不足でした。日本は、高齢者雇用の活用によって、人手不足を乗り越えることができるかもしれませんが、そのためのAI活用となると、AIを利用するための従業員のスキルが十分でなければ、企業におけるAI導入は進んでいかないと思われます。

伊達 同じ問題について、今度は企業側の目線でご意見いただければと思います。戸田さんの講演資料の中にも、導入時の課題として、社内の理解不足や導入効果への懸念といった点があげられていたかと思います。そこで山岡さんにおうかがいします。ライオンでは、トップダウンとボトムアップの両輪でAIの導入を推進していましたが、必ずしも全員が使っているわけではなかったといった結果もあげられていたかと思います。現場の一部でなかなか積極的に使われないといった壁を、どのように打破しようとされてきたのですか。

「食わず嫌い」の人にはうまい使い方を丁寧に伝えていく

山岡 当社では幸い、トップの理解が非常にあって、何か生成AIを使うことに対して「こういうリスクがあるからやめたほうがいいよ」などということはありませんでした。ただ、やはり食わず嫌いみたいな人は多かったです。

報告の繰り返しになりますが、そういった人たちに対しては、生成AIがその人たちにとって何がいいのか、または、業務でどうやればうまく使えて、いかに楽になるかみたいなことを、丁寧に伝えていく必要があるのかなと思っています。

また、いきなり業務の話から入ると、生成AIについて興味を持ってもらえないのではないかと思いましたので、画像生成の面白いサンプルを作って渡したりすることで、「意外と生成AIは使える」と感じてもらうようなことをしてきましたし、今でもそうしたことを行っています。

伊達 では同じく、藤澤さんにおうかがいします。デンソーは製造現場も持っていますし、非常に多角的な人材を有する大企業かと思います。そういったなかで、AI導入に対する現場の温度感はいかがだったでしょうか。また、AIを導入していくなかで障壁となったことや、工夫されたことについておうかがいできればと思います。

社内の仕事・タスクがどれくらいAIに置き換わるかをまず議論

藤澤 当社は比較的、数字やテクノロジーに関心がある人材が多く、AIに対する関心は非常に高い様子がうかがえました。ただ、実際に業務変革に至る過程では、いくつかの課題や、工夫しなければいけないポイントがありました。

1つは、業務設計や業務に対する理解の問題です。当社は全社的に、社内にある業務について細かくジョブディスクリプションのような情報フォーマットで整理するという制度や運用にはなっていません。ただ、AIに業務を任せていくということになると、具体的に、○○さんがやっているこの業務をAIに任せましょうという話をしないと、なかなか話が進まない。そうした背景もあって、まずは、具体的に社内にこういう仕事やタスクがあって、そのうちどれぐらいがまずAIに置き換えられるか、というところから議論を始めようとしています。ですので、ジョブやタスクと人材の話を紐づけるような形で議論していく必要性があるのでは、と考えています。

もう1つは、AIに仕事を奪われるのではないかという不安感も時おり聞かれる点です。ですので、単純に「AIで業務を効率化しよう」だけではなく、「効率化した後に何をするか」まで含めて考えていかないと、おそらく心理的なハードルによる抵抗感が拭えず、なかなかAIの導入が進まなくなる可能性もあると思っています。

労働市場におけるAIによる格差の推移

伊達 たしかに、不安といった人間の心理もきちんと配慮しながら導入を進めていかないと、「アルゴリズム嫌悪」といって、AIに対する嫌悪感が高まってしまったりします。

では、このAIの利用のアクセスにおける不平等、いわゆる格差の問題に視点を移していきたいと思います。戸田さんの基調講演では、AI利用者の属性、すなわち企業規模、正規雇用か非正規雇用か、性別、若年層か高齢層かなどにおいて、偏りが示されていたかと思います。そこで川口さんに経済学の視点からおうかがいします。AIはスキルの低い人を助けて、格差を縮めるというような議論もある一方で、専門職の人がさらに強くなり、格差を広げるというような議論もあるかと思います。このAI利用者の偏りをふまえたときに、労働市場におけるAIをめぐる格差が今後どのように推移していくと考えますか。

不平等を考えるときには2つの角度での見方がある

川口 労働経済学者が、AIがわれわれの雇用の環境にどのような影響を与えるかという分析をするにあたっては、タスクという概念が非常に大事です。特定の職業に就いている人が、どういうタスクをこなしていって、そのタスクの中のどこまでをAIで置き換えることができるのかというような視点に注目します。

そのうえで、不平等というものを考えたときに、2つの角度での見方があります。1つは、特定の職業の人の中で、AIがその格差をどういうふうに変化させるか。例えば、コールセンターの労働者の生産性や、ライターの書くものの質や書くのにかかる時間、あるいはタクシードライバーがどれぐらいのスピードで顧客をつかまえることができるかといったことに関する研究がありますが、スキルが低い人のほうが、AIを使って生産性を上げることができるということがわかっています。

その意味では格差を縮小させるような力があるのですが、その一方で、職業ごとにやっているタスクが違うので、AIで置き換えることができるようなタイプの仕事をしていて、仕事が失われてしまう人もいれば、AIを利用して生産性を上げる余地が大きいハイスキルの仕事をしている人もいる。そういうふうに考えると、職業間の格差はAIの浸透によって拡大していく可能性もあります。

ご指摘があった正規と非正規、高齢者と若年者、大企業と中小企業といったところでのAIの利用可能性には差がある可能性が大きいので、私はひょっとすると、格差拡大的に機能するような可能性のほうが高いのかなと思っています。

伊達 今度は山本さんに、法的な視点からおうかがいします。AIを利用できるか否かといった観点が、例えばその人のキャリアや能力評価を含めて、広く人生全体に対してつながってくる可能性があります。そうなると、AIが単にツールを使うか否かということを超えて、個人の尊厳や働く権利のようなところにも関わる問題になってくるのではないかと推測します。そういったときに、この不均衡がある状態に対して、そのリスクも含めて、山本さんはどのようにお考えですか。

今後はAIを使える人と使えない人との間の「AIディバイド」が問題に

山本 2点ほどコメントしたいと思います。1つは、これまでデジタルディバイドという言い方がされてきましたが、おそらく今後は、AIディバイドという言い方がされ、AIを使える者と使えない者との格差が問題になってくるというのはご指摘のとおりだと思います。

比喩を用いて言うと、すっと車を使ってゴールまでたどり着ける人と、人力車で一生懸命やる人とでは、やはり不公平が出てくるのかなと感じています。AIに対するアクセスをどのように確保するかは非常に重要な課題になってくると思います。

ですので、現状、まだ人力車を一生懸命押している人がいるということを認識したうえで、彼らをどういうふうに包摂していくのかを考えていく必要がある。AIツールを単に提供するだけでなく、使い方などの啓発や研修が非常に重要になってくると思いますし、私が専門とする憲法学から言うと、憲法27条というのは勤労の権利を保障していますが、国民の能力に応じた仕事に就けるような労働市場を整備する義務というのが国家にあると言われていますので、こういった人力車を一生懸命押している人に対してどのように国家が支援等できるかということも、重要な課題になると思います。

AIツールを障がい者等に提供する企業の責務も今後の論点

もう1点についてですが、戸田さんの報告の中で、障がい者や、育児・介護のケア責任のある労働者、従業員のパフォーマンス等をAIが改善し得るのではないかとの指摘がありました。これは包摂(インクルージョン)ということを考えると、とても重要な指摘だったと思います。これまで、障がい者の方が「こういう仕事ができない」ということを理由にされて排除されてしまうようなところがあったかもしれませんが、AIツール等を使ってそれができるということになってくると、単純にできないという理由で排除はできないことになってくる。AIツールを障がい者等に提供するという、ある種の企業側の責務がどうなるのかということも1つの論点になり得るのかなと感じました。

労働市場におけるAIのポジティブな効果

伊達 ここまでの議論では、どちらかというと課題に焦点を当ててきたかと思いますが、希望の持てるデータもありました。まさに山本さんが2点目であげた論点に含まれていたかと思います。

そこでブロッケさんにうかがいます。障がいのある方や、ケア責任を持っておられる方々が、AIを積極的に利用してポジティブな効果を感じているといった現象は、日本特有の現象なのでしょうか。AIは労働市場のインクルージョンを高める可能性があるものなのかという観点について、ぜひご意見いただければと思います。

OECD事務局の調査結果でも、AIは障がいのある方々にメリットをもたらす可能性

ブロッケ 非常にすばらしい質問だと思います。AIの話をしていると、AIのリスク面ばかりを議論してしまうことがあります。しかしながら、AIはさまざまな立場の方々に機会をつくるきっかけにもなり得るのです。

まさに、障がいのある方々が、それに当たります。AIは、こうした方々が労働市場へ参入するにあたっての障壁を越えるための支援ができるからです。ただし、同時に強調したいのは、やはりリスクもあるということです。AIが既存の差別を再生産してしまう問題もあります。また、AIを上手く使えるかどうかという課題もあるでしょう。

しかしながら、OECD事務局の2022年調査の結果をみると、AIによって最もメリットがある人たちというのは、障がいのある方々だというのが企業側の見解でした。AI技術というのは、障がいのある方々を助けるという観点においても、今までの技術とは違います。なぜなら、AIは個々人に必要な支援をパーソナライズすることができるからです。また、シンプルなテクノロジー、例えば、携帯電話などに埋め込むことができるので、利用コストも低く抑えられます。

ただし、こうした分野における研究開発をより一層進めるうえで、障がいのある方々のマーケットが小さい点は企業にとって課題となり、こうした用途での技術をスケールアップしていくことが難しくなっています。実際にマーケットで成功している技術というのは、より広範に利用されるアプリケーションがあるものです。

もう1つの課題は、特に雇用主側において、こういった用途での技術開発についての理解を深めることです。障がいのある方々を支援するためのAI技術を開発するときには、実際に障がいがある方々にも技術開発に関わってもらうことが重要だと思います。

伊達 いまのお話で特に私が興味深いと思ったのが、AIの開発のプロセスにおいて障がいを持った方をインクルージョンしていく、インクルーシブデザインの発想が必要になってくるというところでした。

続いて、石原さんにおうかがいしたいと思います。石原さんのご報告の中で、AI協働力や、AIを使うといった人的資本の話もありました。育児・介護など、いわゆる時間的な制約や物理的な制約がある労働者にとって、AIはそういった制約を乗り越えるパートナーになり得るのでしょうか。

働くなかで時間的、物理的制約があっても問題にならなくなる

石原 今の観点はとても大事です。私はそこに関してはものすごくポジティブです。これまで日本企業では、人と同じことを人と同じぐらいのレベルでできる能力がとても大事にされてきました。それができない人は、そもそも低い評価からスタートするとか、出世の道が断たれるなど、いろいろなことがあったと思うのですが、そういったことを考える必要性が減ると思っています。

例えばこれまでは、障がいがある人にとっては、ある局面でほかの人と同じようにできるということがとても難しかったりしたと思います。そのできないことが排除につながったりしてきたわけですが、それができなくても全然問題ありませんという状況になる。できないところはAIにやってもらって、「あなたができるところでやってくれたらいいですよね」と言いやすくなると思います。

これはおそらく、ケア責任のある人たちに対しても同様です。1つの大きな制約はやはり時間ですが、AIがさまざまな生産性を向上させてくれることは間違いない。いわゆる時短で働いていて、ほかの人は長時間で働いているのに申し訳ないみたいな気持ちを持たなくてもよくなる。

管理職も、今でも一般社員よりも「24時間戦えますか」と言われている感じがありますが、戦わなくても大丈夫になりそうです。報告のなかで、管理職の仕事の中身が変わりますよと申し上げましたが、管理職のやることが、もっと人の働きたいという気持ちに応えていくことになり、人の働くモチベーションを高めていくことになる。そうしたときに、AIがあるということが、「仕事だけに365日24時間没入するなんてかなわない」という人たちにとっては武器になり得る。

AIを使って成果を出すというところまでが個人の成果と見なされるようになる

伊達 私が専門としている領域は、特に経営学の中でも心理学寄りのトピックなのですが、そのなかで、1つAIについて少し考えさせられる研究があります。透明性のパラドックスと言うのですが、ある人がAIを使って何かパフォーマンスを上げたとする。すると、その人はAIを使ったことであまり評価されず、「自分の力じゃないよね」というふうになってしまう状況が実験で検証されたというものです。

AIも使って成果を出すというところまでがその人の成果なんですよということが、社会の中でもう少し受け入れられて、広まっていくことが、今後、特にダイバーシティーやインクルージョン、また、マネジメントの難しさといった問題を考えるときに、重要になってきそうだなと思いました。

石原 今の観点は、本当によくあることだと思います。しかし、これは過渡期の話だと私は思っています。みんな即、そうなれるからです。今、iPhoneを使っている人はずるいと誰も言いません。2年後、3年後には全然違う状況になっているだろうと思っています。

伊達 ここまでのセッション1を整理したいと思います。日本が国際的にみて、AIの導入が遅れているという課題がある一方で、AIを使っていくことができれば、さまざまな立場の方々が活躍できる武器になり得る可能性があるということが見えてきたということでした。そうしたAIのポジティブな可能性について、セッション2のなかで、特に中小企業とスキル、賃金などに対する影響について、ぜひ深掘りしていければと思います。

セッション2:AIはより幸せな働き方を実現するか

中小企業でのAI活用

伊達 セッション2は、「AIはより幸せな働き方を実現するか」をテーマに設定しました。ここでは一歩進んで、AIを使ったその先に、私たちの仕事や生活がどういうふうに変わっていくのかについて議論できればと思います。特に、日本企業のほとんどを占めている中小企業での活用や、労働者にとっての切実で身近な賃金やスキルといった問題について掘り下げていければと思います。

中小企業の可能性については、考えさせられる結果が戸田さんの基調講演の中でも紹介されていました。大企業よりも中小企業の従業員のほうが、AIによるパフォーマンスの改善についてより強く実感しているといった興味深いデータがありました。

そこでブロッケさんにお尋ねします。中小企業こそ、AIの恩恵を受けやすいといった分析結果について、その背景をどう見ていますか。

生成AIならコスト問題は生じず、従業員のスキル不足も乗り越えられることも

ブロッケ OECD事務局が、中小企業と生成AIについて調査を行った結果、生成AIは、AI利用を民主化したと思いました。製造業と金融・保険業に対する2022年調査では、一番の障壁はコストという結果でしたが、生成AIはコスト問題が生じにくい面があります。

また、この調査では、生成AIが多くの恩恵を中小企業にもたらすことがわかりました。いくつかの中小企業から聞いた話ですが、生成AIの利用によって従業員の業績が向上したとのことでした。さらに、3分の2以上の中小企業が生産をスケールアップすることができたと答え、また、30%近くの中小企業が大企業と競争しやすくなったと答えました。

もう1つの面白い結果は、生成AIによって、中小企業は従業員のスキル不足を乗り越えることができるということでした。25%の中小企業が従業員のスキル不足をAIで乗り越えることができたと回答し、また、3分の1の中小企業がAIを導入することで従業員の労働負荷が減少したと回答しました。

一般的に、生成AIの技術を職場に取り入れる際の障壁はたくさんあり、こういった障壁は中小企業にとってより高いものになっているだろうと思います。しかしながら、OECD諸国では、労働者の過半数は中小企業に勤めているので、AIを職場に導入して最大限活用するためには、中小企業とそこで働く労働者がAIをうまく使える状況にしなければなりません。これは、OECD諸国における政策上の優先課題だと思います。

伊達 続いて山岡さんにおうかがいします。ご報告を聞いていて、現場主導で開発できるという点は、リソースの限られている中小企業にとっても有益な話であり、ヒントになるのではないかと思いました。

また、山岡さんは生成AIの「民主化」というキーワードもあげておられました。AIの民主化を進めてきた経験から、中小企業が実行できる工夫や、こういうところは企業の規模を問わず有益な進め方になるのではないかという点などがありましたら、ぜひ教えてください。

使い方の事例を共有すれば得られる成果も広がる

山岡 今は、自分たちでできなかったことも、自分たちで少し調べればできるようになってきています。勉強会などを企画し、どういう業務に対してAIを使っていけばいいのかなどの事例の共有を各部門から募ったりすることで、生成AIの使い方をしっかりと共有していくと、得られる成果もどんどん広げていけると思っています。

伊達 小さく実践していくのも、1つのポイントなのかもしれないですね。小さく実践して、そしてさまざまな実践が蓄積されてきて、それを社内で共有できるようにする。もしかすると、中小企業という文脈で言えば、社内だけではなく、社外ともうまく情報交換などを行っていくことができると、より活用が進みやすいのかなと思いました。

AI活用と賃金

伊達 次は賃金についてです。賃金についても、基調講演の中で考えさせられる結果が出ていたと感じました。AI利用者に焦点化すると、実際に賃金が増えたという回答が一定の割合を占めていました。一方、将来予測をみると、AIによって賃金が下がっていくのではないかという懸念も根強いということかと思います。

そこで、この問題についてご専門の川口さんにおうかがいしますが、AIが果たして人の仕事を代替して賃金を下げていってしまうのか、それとも、うまく補完して賃金を上げていくことができるのか。そうした議論があるかと思います。現在の日本の状況において、AIによる生産性の向上を賃金の上昇につなげていくために、いったい何が必要なのでしょうか。

AIによる生産性向上の果実が及ぶ幅をどうやって広げるか

川口 AIの導入がどういうふうに賃金に影響を与えるかというのは、職業によって非常に異なると思います。AIによって生産性向上の果実が得られる職業と、必ずしもそうではない職業に分かれてしまうことがある。

その果実が及ぶ幅を、どうやって広げていくのかということは重要な課題だと思います。今まさに人手が足りていないと言われている産業に、建設、医療、保健などがありますが、こういった産業にも、例えば建設現場であれば施工管理の部分にAIを入れるといったことが広がってきており、それによって生産性を上げることができるようになってきています。

先ほどの中小企業の話とも関わりますが、技術導入をしようと思ったときに、建設業に数多い中小企業だと、新しい技術に対してのアクセスがなかなかできない。こういったところにいかにリーチできるようにして、新しい技術を入れて、現場の労働者の労働生産性を上げることをやっていく、こういったことが大きな課題なのではないかと思います。

伊達 賃金の問題だけでなく、その前段にある人事評価も含めて、今度は石原さんにお尋ねします。先ほど、「AI人的資本」という考え方を示されていたかと思います。これは個人的にはとても面白いと思っていまして、従来の人的資本を拡張するような領域というものがあるのではないのか、そういうところにも目を向けていく必要があるのではないかというお話だったと思います。

特に私がうかがいたいのは、それらとAI協働力との兼ね合いです。AI協働力を企業が適正に評価していこうとする場合に、給与体系や評価基準、人事考課などは変わっていくべきなのでしょうか。また、AIを使いこなせる人材とそうでない人材の待遇の格差は、今後開いていくとお考えでしょうか。

現状ではまだ残業が減ったレベルで、賃金が上がる理由がない

石原 ホワイトカラーの仕事に限って言えば、現状ではおそらく賃金は上がらないと思っています。今起きているのは、生成AIを使って少し仕事の生産性が上がって、残業が減ったというレベル。生産量は上がっていません。賃金は生産性に対して払っているのではなく、生産量に対して払っているので、上がる理由がない。

活用がもっと進んで、生産量が10倍になったり、1人でできることが10倍に増えたりしたら、当然賃金は上がるべきだと思います。そうなったときに、生成AIを使っていない人より、使っている人のほうが給料が高くなるのは確実だと思いますが、これをやるときに企業側が絶対に避けて通れないこととして、要らなくなった人への対処が出てくる。

また、AIができる仕事をずっとやっている人は、賃金が上がる理由があまりないのだと思っています。一方、AIが奪いにくい仕事、人にやってもらう以外ないよねという仕事の賃金水準が上昇していかないと、やっぱりおかしいとずっと思っています。

中長期的にみると、ホワイトカラーの仕事では、賢さでAIに勝っていくというのは難しくなる。そうなると、今まで賢いという理由で高い給料をもらっていた人たちの仕事は減ると思います。また別の分野で高賃金の仕事が生まれてくるのでしょうが、そうなるまで、とても時間がかかりそうだなと思っています。

AI活用とスキル・雇用

伊達 賃金の話は、これだけでパネルディスカッションができてしまうぐらい深いテーマだと思うのですが、ここで賃金の話は終えて、スキルや雇用に話を移していきたいと思います。

基調講演を振り返ると、例えば管理職や専門職の人は雇用創出を期待する一方、事務職や現場職の人は雇用の喪失を懸念しており、意識の乖離のようなものが示されていました。未来の予測は誰もが完全にできるわけではありませんが、そうした人の意識も今後のAI活用においては重要な点になってくるのかなと思います。

藤澤さんに質問しますが、デンソーのようなものづくり・事務の現場を数多く抱えている企業では、AIの導入によって、そもそも求められるスキルや人材の要件といったものは変化していくものなのでしょうか。そして、そのような変化に対して、従業員が不安を感じることはないのでしょうか。

人間に残る最後の仕事は「謝罪」?

藤澤 半分笑い話で、半分笑えない話から紹介できればと思います。実際、こうした論点を社内でも議論しています。そんななか、ではこれから先、AIやロボットが職場に浸透してきたときに、人間に残る最後の仕事って何だろうかという議論を真面目にしたことがあります。出ていた意見で面白かったのが、「謝罪」だと。要は、AIが仕事をやってくれるので、AIの出したアウトプットの過失や粗相について、「すみません」と最後に謝罪をするところは人間がやるのではないかという意見があって、これはあながち間違いでもないみたいな感覚を個人的には持っています。

質問に対する答えですが、これはやはり時間軸の話があると思っています。通説と逆のことを言っていたら申し訳ないのですが、目先においては既存の人材ニーズやスキルのニーズは根本的には変わらず、むしろ、よりシビアに求められるようになる可能性があると思います。そうした状況に、AI活用で求められるスキルがさらに乗っかってくるのではないかという仮説を持っているところです。

例えばAIを導入したら、先ほどの謝罪の話のように、人間が責任を取らないといけないことや、AIにはできない例外的な処理などが出てくる。また、AIにさせてはいけないことを人間が考えないといけなくなる。こうした、責任とか例外とか倫理の問題への対処のスキルが必要になってくる。ただ、これらの論点も、既存の業務理解やスキル、能力がないと考えられないので、すでに持っているスキルや人材ニーズは、目先で言うとそこまで大きくは変わらない。

仕事がなくなるのかという不安感は実際に出てきている

従業員の反応については、一部の意見ですが、やはり賛否あると思っています。自分たちがルーティンでやってきた仕事はAIに任せようという思いで立ち上がったプロジェクトが社内でいくつか出てきていますし、「この仕事はAIによってなくなるんだろうね」という不安も時折聞かれます。そうした不安に対して、主に雇用の観点で人事としてどういうコミュニケーションを取るべきか、どのような人材開発をしていくのかということは、非常に重要な論点だと思っています。

一方で、すでにAIをどんどん使い倒している職場もあり、そうした職場では仕事が奪われるというよりは、新しい世界がどんどん広がっていくというような世界感を持っています。こうした温度差が社内にあるなかで、人事として社内外のAIの動向に目を光らせながら、不安への対処や積極的な職場の後押しという雰囲気づくりや制度、仕組みづくりが必要になってくると考えています。

アルゴリズム嫌悪または自動化バイアスの心理を持ち得る

伊達 藤澤さんの話を聞きながら、AIと人間心理に関する研究の知見を少し思い出しました。AIと人間心理に関する研究を紐解いていくと、大きく二極化した心理を人はAIに対して持ち得る。1つは、「アルゴリズム嫌悪」と呼ばれる、AIに対するある種の嫌悪感で、使いたくない、そんなものを使ったら大変なことになる、脅威だと感じてしまう心理です。これはAIの利用を妨げます。もう1つは、「自動化バイアス」と呼ばれる心理です。これは、AIが出してきた結果に対して、ある種、無批判にそれを受け止めてしまう傾向のことを指します。

アルゴリズム嫌悪に陥ってもだめですし、自動化バイアスに陥ってもだめで、その間で苦しみながらも、そこで立ち止まることができるかどうかという観点が非常に重要になってくるのかなと思いながらうかがっていました。

ここで少し法的な観点も入れられればと思います。山本さんにおうかがいしますが、AIが人事評価や配置といったものに関わってくるようになると、効率性という名の下に、人間がある種、データとして選別されていってしまうといった懸念があります。人間中心の職場をつくっていくために、AIによる評価に対して、働く側の権利や尊厳をどのように守っていけばいいのでしょうか。

人権に関わってくるのは意思決定におけるAIの活用

山本 たいへん重要な視点だと思います。今日、いろいろなAIの使い方が紹介されましたが、私はまずそれを分類することが重要だと思います。つまり意思決定に直接関わるような使い方と、例えば要約させたり、議事録をつくらせたり、パワポのスライドをつくらせたりというような、要するに意思決定と直接関わらない、いわゆる業務支援との違いを分けなければいけない。

意思決定にも、例えば個人の評価に使う場面もあれば、経営戦略上の意思決定もあり、これをやっぱり分ける。人権との関係で重要なのは意思決定で、かつ個人の評価に関するディシジョンメーキングをするところは非常に緊張感を持って扱わなければいけない。

個人の評価では、これまで人間が行ってきたなかでもバイアスがかかっていたので、そういう意味では、AIによる評価を導入することがむしろ個人の尊厳を実現する側面もないではないと言えますが、やはりリスクがいろいろと指摘されているところです。

具体的なリストとして差別、プライバシー、個人の尊厳

1つは差別の問題です。特に学習データに偏りがある。特にマイノリティー(少数派)のデータは、「過少代表」という言い方がされますが、過少にデータの中に代表されることによって、不利な判断が出やすくなる。逆に言うと、マジョリティーは学習データの中にたくさんそのデータが入っているので、有利な判断が出てしまう。

その点から言うと、学習データの品質がまずは非常に重要になってくると思います。学習データの問題に関しては、例えばEUのAI法の中では、人事での利用はハイリスクの利用ということにされており、データの適正性が求められています。

2番目に、プライバシーの問題を指摘することができます。個人の評価のためには、個人のデータを集めなければいけませんが、その際にきちんと説明ができていたのかなどの観点も重要になってくる。

3番目は、個人の尊厳に関するものです。AIを使って個人を評価しだすと、メンタルの問題かもしれませんが、やはり人間を定量化された存在として見てしまう。数値化された存在として見てしまって、確率によって個人を評価してしまうようになる。これは、確率という牢獄に人間が閉じ込められるという言い方もされますが、本来、定性的な評価や、データに表れない個人の個性や具体的な背景が、過度に丸められてしまうという問題がある。それによって個人の尊厳、人間の疎外化みたいな問題が起きる。

EUのAI法、GDPR(EU一般データ保護規則)にも重要な規定がありますが、やはり、データの利用に関する事業者側の義務などの問題を考えなければいけませんし、個人が異議を唱える機会や権利などについても今後検討していく必要が出てくると思っています。

伊達 ではこのセッション2の最後に、ブロッケさんにおうかがいしたいと思います。雇用への影響という観点についてです。生成AIに限らず、広い意味でのAIによる自動化の影響を受けやすい層がさまざまあるかと思います。例えば、ロースキルの職や、ルーティン業務に従事している労働者などです。そうした影響を受けやすい層に対して、どのようなセーフティーネットや公的な支援が求められてくるのでしょうか。もし海外の先進的な事例等があれば教えてください。

AI技術は、ハイスキルの労働者の仕事の一部も代替する可能性がある

ブロッケ AI技術は、最初は非ルーティンの認知的タスクを遂行することができませんが、いずれハイスキルの労働者の仕事の一部を代替できる可能性を孕んでいると思います。しかしながら、AIによる影響は、職業によって異なるでしょう。

エビデンスをみると、AIに対して最も脆弱な仕事のなかにハイスキルの職業もありますが、実は最も雇用が伸びていくことが見込まれる職業でもあります。なぜなら、AIがこういった人たちの労働生産性を向上させ、それによって、もっと質の高い製品やサービスが提供できるようになると同時に、コスト面も下がっていく。これらによって消費需要が喚起され、企業側の労働需要も高まるという構図があるからです。

ただし、しばらく様子を見る必要があり、判断するには時期尚早だと思います。今の段階では、ロースキルの労働者に対する影響のほうが大きくなるのではないかと思っています。なぜなら、ロースキルの労働者は持っているスキルの数が少ないので、AI技術による自動化の影響を受ける余地があります。したがって、われわれはまず、AIで大きな影響を受ける人たちをしっかりと見極めていかなければいけません。各国ともに支援のリソースは限られていますので、それを賢明に使っていかなければなりません。

支援例としては民間と連携したトレーニングやスキル・プロファイリングなど

他国の支援例をみていくと、やり方としてあるのは、まず、民間企業と連携したトレーニングの提供です。AIと協働するため、また、雇用を得るためにも、特定のスキルの習得が必要になりますので、トレーニング機会の提供は非常に重要な取り組みになります。イギリス政府は、トレーニング機会提供のためのリソースが足りていないので、民間企業と協力してトレーニングを行っており、数百万人に対して訓練を行ってきています。

ドイツでは、AIを使って労働者のスキル・プロファイリングを行っています。どういったスキルに対するニーズがあるのかということを特定するのにAIを活用しています。これは、低コストのオプションであると同時に、数百万人の労働者にアウトリーチできます。

また、賢明なリソースの使い方としては、支援対象を絞って対処するという方法があります。例えばカナダでは、大量解雇した企業の従業員に対してトレーニングを提供しています。アメリカでは、特にAIの影響の受けている業界を中心に支援するという方法を採っています。

まだ公開していませんが、OECD事務局でもAIからの影響が最も強いロースキルの人たちを特定し、ヨーロッパの中において、どこにそういう労働者がたくさんいるのかを把握し、どこにリソースを投資すればいいのかということを突き止めてきています。

セッション3:信頼と対話による職場形成

AIと人材育成

伊達 次のセッションは「信頼と対話による職場形成」がテーマです。AIを使いこなすための人への投資、納得して使うための対話、安心して使うための信頼、これらを掘り下げます。基調講演では、企業の研修と自己学習を組み合わせると最も高いパフォーマンスの改善がみられるというデータがありました。

ライオンでは、2025年内に100人のAIエージェント開発人材を育成するという野心的な取り組みをされていました。ツールを従業員に配るだけではなく、従業員がAIの利用や活用に対して自分事として当事者意識を持って学んでいくために、そして開発までつなげていくために、どのような工夫をしていますか。

課題設定力やBPRができる人材を育成することが重要

山岡 AIエージェント開発人材の育成については、すでに2025年に100人に到達しています。2026年はさらに人数を増やしたいです。AIや生成AIに限りませんが、やはり最も大事なのは、何をどのように変えてどのように実現するかという課題設定力や、BPR(ビジネスプロセス・リエンジニアリング)ができることです。世の中ではDXというとDから入ることが多いです。もちろんDも大事ですが、実はXをしっかりと定義する力が非常に大事だと思います。

実際、当社でデジタル人材育成の研修を今後進めていくうえでも、BPRの能力を養うコンテンツは必ず含めています。やはり、人間が課題設定をすることは今後も必要だと思います。

伊達 石原さんの報告のなかで、変化し続けることや学び続けることはAI時代において重要である、特に組織がしっかりと仕掛けをつくっていくことが重要という話がありました。従業員がAIについて自律的に学ぶ意欲を高めていくために、企業側はどのような働きかけやモチベーションの喚起を行えばよいのでしょうか。

管理職が期待値を込めた部下の目標設定をできるか

石原 管理職の役割が非常に重要になると思います。従業員の目標設定やミッションの設定は、人事ではなく管理職がするものです。従業員が「この仕事を任されるというのは、上司は私のことをよくわかってくれているな」「上司が私に期待をしてくれている」と思う目標設定をできることが、これからの管理職に問われると思います。「何も考えずに去年と同じことをやれと言われた」「私の今年の忙しさや事情を知らずにこれをやれと言われた」という形で従業員がモチベーションを下げてしまうのはもったいないです。

「難易度は高いかもしれないけど、これはAIも一緒に使ってやったらいいはずだよね」「おそらくこういうスキルが必要になるから、こういう勉強をしておいて」といった形で仕事に対する意味づけを一緒に考えることや、必要なスキルをつける能力開発をガイドすることが、上司の役割として非常に大事になると思います。

大企業ではこうした取り組みを自社でコストをかけて行えばいいですが、中小企業には公的な助成が必要になると思います。さまざまな安価なコンテンツや無料の学習機会もありますが、なかなか知られていない部分もあります。実効性のある講座を見つけてもらい、参加してもらうために、公的機関が情報提供と資金援助をもう少し行ってもよいと思います。

納得して使うための職場内対話

伊達 基調講演のなかで、日本の職場はAIをはじめとした新しい技術を導入するときに、労使の協議や相談が必ずしも多くないというデータがありました。ライオンは生成AIの民主化を掲げており、コミュニティも運営しています。この取り組みは簡単なことではないと思いますが、何か意識して行っていることはありますか。

キーマンをしっかりとつかまえることが大事

山岡 全員がコミュニティに参加しているわけではないので、決して簡単な取り組みではないと思います。各部門で興味を持っているキーマンに声をかけると、その人たちがコミュニティに入り、その人たちが各部門に持ち帰って広げて、さらにコミュニティに人が入ることの繰り返しです。キーマンをしっかりとつかまえることが大事です。

それから、コミュニティに取締役や執行役員が参加すると、彼らが積極的に発言します。そうすると、従業員は「偉い人が発言しているぞ」と認識して、キャッチアップする人が増えるということも実際にあります。以前は執行役員が別のフロアにいたので、話す機会が多くはありませんでした。しかし現在は同じフロアにいます。そうすると、生成AIについて情報を仕入れると、執行役員が喜んで私たちに話しかけてきます。反対に、若いメンバーが生成AIでできることを見つけて執行役員に話しかけることもあります。執行役員の近さをいい意味で活用して、彼らに報告することがモチベーションとなり、実際に実行できるようになるという体験も積み重ねています。

伊達 労使のコミュニケーションについて山本さんに質問します。法的な観点からAIをめぐる労使コミュニケーションの重要性をどのように捉えていますか。個人の尊厳を守るために労使の対話が果たす役割はありますか。

使用者側と労働者側でAI活用に関する非対称性が生まれる可能性

山本 使用者側と労働者側で、AIの利用・活用に関する非対称性が生まれてくる可能性があります。生産性、効率性や従業員の管理といったモチベーションから使用者側がAIの利用・活用を進めたい一方で、労働者側は置いてきぼりになります。個人に対する評価の意思決定の場面では、とりわけ使用者と従業員との間で利益相反になることがあり得るので、人権リスクがより高まります。

一般的にも、AIの利用・活用が進んだときに、個人が数値化・定量化されて確率的・自動的に評価されてしまうことに個人の尊厳の問題はあります。

組織の中では個人は弱い存在です。例えば同意の有無について、同意せざるを得ない状況に陥ることがあります。こうした非対称性を個人が埋めるのは結構な重荷になるかもしれません。そうした意味ではやはり、必ずしも労働組合でなくてもいいかもしれませんが、労使のコミュニケーションをどのように図っていくのかは非常に重要です。

日本国憲法の第28条は労働基本権を保障しています。使用者側とコミュニケーションを取ることは憲法上の権利です。AI時代を前提とした新しいコミュニケーションの形について、闘争的にならなければいけない部分もあるかもしれませんが、むしろWin-Winになる使い方もあるわけなので、これを機に新しいコミュニケーションの形をつくっていくことも重要です。

基調講演のなかで、職場での信頼について言及がありました。コミュニケーション不足による使用者と従業員の間での非対称性は信頼の問題にもなり、AI活用の妨げにもなり得ます。労使の協議、コミュニケーションはAIの活用を考えるうえで非常に重要な課題です。

伊達 ブロッケさんに国際的な視点から質問します。基調講演のなかで、日本ではAIを職場へ導入するときに労使の相談が必ずしも多くないというデータがありました。世界的にはAIをめぐる労使の対話の重要性は高まっているのでしょうか。

使用者と労働組合が対話することにはメリットが大きい

ブロッケ OECD事務局が2019年に公表したEmployment Outlookは「仕事の未来」をテーマとしました。労使双方からのアドバイスを受けて執筆しましたが、この報告書で合意したのは、仕事の未来において雇用主と労働組合のどちらの取り組みも大事であることです。しかし、「AIと労働市場」をテーマとした2023年のEmployment Outlookの執筆の際には、労使の意見、視座がうまく合致しない現場もいくつか見ました。

先週、ベルギーのブリュッセルにある製造業・採掘業の産業別労働組合を訪問して驚きました。AIの未来、仕事の見通しについて組合は悲観的でした。労働組合側は、雇用主側がAIによる自動化を進め、そのメリットを自分たちのみで享受しようとしていると感じてしまい、かなり対立的になっていました。

労使コミュニケーションは、やはり重要です。労働者は、AIの導入効果に関して、こうした取り組みが仕事のパフォーマンスや労働環境を改善するものとして前向きに捉えています。以前、OECD事務局は、管理職のアルゴリズム・マネジメントツールについて、実験的な調査を行いました。雇用主と労働者がアルゴリズム・マネジメントツールの将来について話し合い、労使双方にとってプラスになるツールのデザインに取り組んでおり、労使コミュニケーションが非常にメリットのある取り組みであることがわかりました。

しかし、現時点で、私たちがわかっているのはこの程度です。社会対話を国レベルですべきなのか、それとも産業別に集団交渉を行えばいいのか、あるいは、企業内で組合の代表とすべきなのか、新しいテクノロジーを職場に導入する際、どのような社会対話がうまくいくのかについて、私たちはまだわかっていません。OECD事務局としても、さらに調査研究を進めていきたいです。

安心して使うための信頼

伊達 アルゴリズムから仕事を依頼された場合と、人間のマネジャーから仕事を依頼された場合を比較すると、アルゴリズムから依頼されると自分の仕事の価値が下がってしまったと感じてしまうという研究を読んだことがあり、非常に考えさせられました。同じ内容の仕事であっても、それを取り巻く条件によって人間の心理は変化するものです。

OECDの調査結果で、会社が安全なAIを使っていると従業員が信じているほど成果が出ており、AI導入の成否を分ける要因になっているという指摘がありました。藤澤さんは人事の立場で人事領域でのデータ活用、AI活用を進めています。人事領域ではプライバシーや倫理的な側面など、さまざまなリスクを考慮する必要があります。AIに対する従業員の不安を払拭して信頼してもらうために、工夫していることや意識していることはありますか。

社内の仕事や従業員のスキルの可視化が重要

藤澤 実際のところ、われわれもまだ悩んでいます。労使コミュニケーションに関連する点では、社内にある仕事やタスクを可視化しないでAI活用のコミュニケーションが始まると、いろいろな論点が交じり合って、お互いの妄想で、机上で空を切り合うことになりかねないという懸念があります。

人事データという観点では、社内でどのような仕事があるのか、誰がどのようなスキルを持っていてどのような仕事をしているのかを可視化することが重要です。例えばこの仕事は何割が直近何年でAIに置き換わりますよねという、具体的なエビデンスを持って話すことが、AI活用における労使の信頼関係に至るまでに非常に重要な情報であると考えています。

日本企業の多くはジョブ型ではないので、この点がおそらくボトルネックになってくると思いますし、どのように人に紐づくジョブやタスクを可視化するのか、当社も悩みながら取り組んでいます。

そのうえで信頼感をどのようにつくるのか。これは、もう一歩踏み込んだ議論が必要です。哲学的な議論になりますが、人間が仕事を遂行することにどのような意味があるのか、しっかりと考える必要があります。例えば、一見すると非効率的でAIにもうすぐ奪われそうな仕事が、実は社員の能力開発に資しているとか、社員の誇りや帰属意識に関わるタスクだったということもあり得ます。

そうしたなかで会社や人事が、「これもAIですね、あなたは明日からこの仕事をしなくていいです」と言えるかどうかという問題です。その社員がどのような思いを持って現在の仕事をしていて、どのような不安を抱えているのかも含めて、しっかりと人事が把握しながら、AI活用を進めていくことが人間中心の観点でも必要ではないかと考えています。

この意味で、AIの導入は業務変革の側面も強く議論されていますが、やはりAIで仕事が置き換わった後の人材開発のあり方とセットで語られるべきだと思います。

伊達 川口さんに質問します。信頼は取引のコストを下げる機能があると言われます。企業がAIの安全性やガバナンスにコストをかけることで、例えば、不安が取り除かれて生産性が向上するということはあるのでしょうか。

タスクはなくなるが雇用は守り、賃金・生産性が上がることを示すことが技術導入では重要

川口 AIを導入することに対して従業員の不安を取り除くことの便益は、非常に大きいと思います。従業員が最も心配することは、AIの導入で仕事が失われてしまうことです。例えば、技術導入によって、あるタスクはなくなるけれど、従業員の雇用は守るのでほかの仕事をしてもらいますと言う。それによって従業員の生活水準が上がり、賃金が上がり、生産性が上がることを説得力ある形で示すこと、コミュニケートすることが技術導入では重要です。

OECDの調査で示されましたが、日本のAI利用率が突出して低いことは衝撃的です。これは日本における産業用ロボットの導入における経験とは対照的です。1980年代の産業用ロボットの製造現場への普及は、日本が断トツで進んでいましたが、その理由は日本の製造業が雇用を守ろうとしたことにあります。溶接や塗装の仕事がロボットに置き換わったとしても、その仕事をしていた人は同じ会社のほかの部門に異動して、能力開発が実施されて、新しい職場で活躍できるということについて信頼感を持って労使でコミュニケートできました。このことが新技術を導入することに対する職場の不安を和らげ、その導入をスムーズにしたのです。

このような歴史の教訓をふまえると、AIの導入について労使でしっかりコミュニケーションをとり、AIの導入が回り回って従業員にどのような便益があるのかという道筋をしっかりと示すことが大事です。無理筋な議論をいくらしても従業員は納得しないでしょう。労使でしっかりとコミュニケートすることが、労使のリーダーに求められます。

伊達 ブロッケさんに質問します。AIの導入について従業員からの信頼を得るためには、企業はどのようなことに優先して取り組むべきですか。

会社側でまずできることは、AIの使用に透明性を持つこと

ブロッケ AI技術に対する信頼の醸成は、とても重要な課題です。多くの労働者は、安全で信頼できるAIを職場で使っていると思えていませんし、AI利用によるメリットが自分たちにあるとは感じていません。この状況を変えていく必要があります。勤め先企業でのテクノロジーの利用に対し、労働者が信頼できていなければ、AIの導入率も上がりません。そのため、まず会社側でできることは、職場でのAI利用に関する透明性を確保することです。従業員に対して、職場においてAIを利用していることをしっかりと説明するということです。

AIが従業員のデータを収集する場合、特にそれが労働者の個人情報の場合、労働者がそうしたデータ収集について把握できるようにする必要があります。従業員が、自分たちのデータが安全に保管されていることを把握できなければなりません。企業は、収集したデータを悪用しないことや、目的のために必要最低限のデータしか収集しないことを従業員に伝えることが大事です。労働者は、個人情報が自身に不利に使われることに最も懸念があります。

雇用主は、利用するAIツールが安全で信頼できることについて、必要なインパクト評価をしなければいけません。バイアスや差別がそのツールに埋め込まれているかもしれません。職場で使用されるAIツールが、安全で信頼できることを労働者も知る権利があります。

また、労働者が、職場でのAI利用に異議を唱えられることや、どのようなインパクトがあるのか質問できることも必要です。つまり、労働者側が雇用主から導入するAI技術について説明を受ける権利を確保するということです。人事考課等、企業としての意思決定をAIで自動化することは非常に危険です。労働者にとって良くないことが発生した場合に、雇用主は、誰が説明責任を果たすのか定めておくことも必要でしょう。

最後のポイントとして、職場におけるAI利用によって、労働者がどのようなメリットを享受できるのか理解できるようにする必要があります。AI利用によって労働生産性が向上したら、それをどのように労使で享受し、従業員の賃金を上げるのか、そのような議論も必要でしょう。スキルの問題では、労働者が雇用主の提供する訓練や財政支援を受け、AIをしっかりと使えるようになる必要があります。これらの取り組みによって、職場でのAI利用に関する従業員の信頼感が高まっていくでしょう。

総括:今後の展望

伊達 最後に、総括として、みなさんの今後の展望を聞かせてください。

世の中の状況や技術の進化を注視しながらしっかりと企業に落とし込む

山岡 生成AIはまだまだ進化するでしょうし、それを体感して、やり方を変えることもたくさんあると思います。世の中の状況や技術の進化を注視しながら、しっかりと企業に落とし込んでいきたいです。企業で得られた資産はどんどん共有して、日本としてよくなるように、世界としてよくなるところにつなげていきたいです。

総合格闘技のように立ち向かう

藤澤 2点あります。1点目は、私も驚いているのですが、まさかここまでAIが進化するとは思ってもいませんでしたし、業務の中で「人間とは何か、仕事とは何か」という問いと向き合うことになるとは思ってもいませんでした。人間に近いAIが出てきたことで、こうした問いに会社や人事として向き合っていかざるを得ない状況が生じています。

こうした問いに解を見出していくことは、総合格闘技のようだと思います。本日のフォーラムのように、さまざまな分野の専門家がディスカッションしながら、ああでもないこうでもないという形で線引きを決め、運用を決めていく。こうしたプロセスが必要だと思います。社内でも人事だけではなく、さまざまな部署が協働しながらAI時代の人間や労働のあり方を考えるという同様の構図が出てきています。領域横断的にこのようなテーマを議論していく場は非常に重要だと思います。

2点目はロボットです。本日はインテリジェンスの話がメインでしたが、人間がこれまで物理的に担っていたことも、もうロボットでいいという世界が目の前に迫ってきているという危機感があります。今後の展望として、このロボティクスの浸透が人間や労働をどう変えていくのかということも皆様と議論していけるとありがたいです。

労働市場全体でAIと仕事についての議論を

石原 さまざまな議論のなかで私自身も勉強になりました。一方で気になることがあります。企業と労働者の対話や、従業員にとって安心な職場をつくるAIの導入という話の一方で、何でもかんでも企業の責任ではないだろうと私は思っています。労働市場全体で雇用が保たれればよいのではないか。企業が労働者にいろいろ気を遣っていたとしても、労働者は勝手に辞めてしまうこともあります。そうしたなかで企業が、「AIがあなたの仕事を奪っても、あなたは絶対にクビにはなりませんよ」と、本当にどこまで言うのかということについて、いろいろと感じるところがありました。

社会全体や労働市場全体で、AIの時代にも仕事がある状態、あるいは仕事に前向きに向き合える状態をつくっていくことは、これは企業を超えて政策の役割だと思います。そのあたりにも目を向けて議論しないと、「企業はこれをやったらだめだ」「これも気をつけなくちゃだめだ」「これもしなくちゃいけないよね」となると、きっと世界的な競争のなかで勝てないだろうとあらためて思いました。

諸外国の水準のキャッチアップ、好事例からの学びが重要

川口 OECDが、国際比較することが可能な調査を行い、日本のAI利用率が低いという基礎的な事実発見を示したことは、大きな気づきです。この状況からどのように諸外国の水準にキャッチアップしていくのか、どのように外国のグッドプラクティスから学ぶのかということが重要です。

また、ロボットとAIの融合も話題になっていますが、日本はひょっとすると世界のトップランナーになれるかもしれません。そのような観点からすると、日本からいかに世界に情報発信をしていくのかも重要になりますので、OECDの方々や、厚生労働省からOECDに派遣されている方々の活躍に期待したいです。1人の研究者としても、貢献できる貴重な知見をつくれるように努力したいです。

法規制ではなく官民・産学連携でのコミュニケーションの方向か

山本 本日のフォーラムでは、モデレーターの伊達さんから法的な観点を質問されても、私からは、法的に第何条がこうで、という議論はほとんどしていません。なぜかというと、日本にはAI関連の規制法が特にないので答えられないからです。そのため、憲法の理念など抽象的な話をしました。

そうなると、まずは規制がない方向で官民連携、あるいは産学連携でコミュニケーションを取っていき、あるべき方向で進めていくことになるでしょう。

他方で、信頼の形成については、本日の登壇企業はかなり意識が高く、法律などがなくてもうまくいくと思いますが、そうでないところでどう信頼をつくるかというと、やはり場合によっては法的な議論が必要になるかもしれません。ニーズを洗い出して、法が存在したほうが逆に信頼が形成される、そして利用や活用が進むかもしれません。

藤澤さんが「人間とは何かについて考えることが出てきた」と発言していましたが、こうした議論を産学連携で行うことも必要になってくると考えています。引き続き大学のなかでもこうした議論をしていきたいです。

OECDとして、引き続き国際比較のための調査分析を実施予定

ブロッケ 特に、調査とデータ分析の重要性について、最後に述べたいと思います。職場でのAI利用については、まだまだわからないことがたくさんあります。AI技術が急速に変わっていくなか、今回のパネルディスカッションにおいても、ロボットとAIという話題があり、次の大きな発展につながっていくのだろうと思います。こうした技術革新が、労働市場でどういった影響を及ぼすのか、引き続き調査していく必要があります。

OECD事務局としては、大きな調査研究プロジェクトを今年(2026年)予定しており、新しいAI調査を実施します。国際比較が可能な調査としては最大のものになると思います。参加国としては、すでにスペイン、イギリス、ドイツ、アイルランド、オーストリア、スイス、オーストラリア、サウジアラビア、イスラエルと日本を確認しており、フランス、イタリア、ベルギー、ニュージーランド、アメリカも参加する可能性が高いです。

質問項目は、参加国ごとの優先順位に違いがありますが、雇用への影響、特に若い労働者への影響が大事なテーマであり続けると思います。また、AIが労働生産性にどう影響するか、AIの労働生産性へのインパクトを最大化するにはどうすればいいか、労働者とのコミュニケーションのあり方、などについても大事なテーマになるだろうと思います。また、どういうスキルが必要なのか、一番いい研修方法はどういうものなのかというテーマも扱いたいと思っています。

最後になりましたが、皆さま、厚生労働省、JILPTに対しても感謝申し上げたいと思います。引き続きのコラボレーションを楽しみにしています。

伊達 パネリストの皆さん、メッセージをありがとうございました。モデレーターとして、これだけ豪華なパネリストの方々、そして多くのセッションを用意させていただいたので、はたして時間管理できるのか不安でしたが、無事時間どおりに終了することがきました。以上でパネルディスカッションを終了します。ありがとうございました。

石原 直子 氏
藤澤 優 氏
山本 龍彦 氏
川口 大司 氏
Dr.Stijn BROECKE
山岡 晋太郎 氏
伊達 洋駆 氏

プロフィール

Stijn BROECKE(ステイン・ブロッケ)

OECD 雇用労働社会問題局 スキル・未来準備課 シニアエコノミストSenior Economist, Employment, Labour and Social Affairs Directorate, OECD

ケンブリッジ大学で開発研究の修士号を取得し、ロンドン大学ロイヤル・ホロウェイ校で経済学の博士号(PhD)を取得。政府機関(モザンビーク保健省、英国公務員)および国際機関(アフリカ開発銀行、OECD)で20年間の勤務経験を有し、保健、年金、子どもの貧困、高等教育、若者の雇用、最低賃金、スキルなど、幅広い分野に取り組む。OECDでは「仕事の未来」プロジェクトを率いて、現在は、人工知能(AI)が労働市場に与える影響に関する複数の研究プログラムを統括している。

石原 直子(いしはら・なおこ)

株式会社エクサウィザーズ はたらくAI&DX研究所 所長

銀行、コンサルティング会社を経て2001年からリクルートワークス研究所に参画。人材マネジメント領域の研究に従事し、2015年から2020年まで機関誌『Works』編集長、2017年から2022年まで人事研究センター長を務めた。2022年4月、株式会社エクサウィザーズに転じ、はたらくAI&DX研究所所長に就任。専門はタレントマネジメント、ダイバーシティマネジメント、日本型雇用システム、組織変革など。共著書に『女性が活躍する会社』(日経文庫)がある。近年は、デジタル変革に必要なリスキリングの研究などに注力する。

川口 大司(かわぐち・だいじ)

東京大学公共政策大学院 院長/東京大学公共政策大学院 経済学研究科 教授

労働経済学を中心に、ミクロデータを用いた実証研究に取り組んでいる。主な研究テーマは、労働市場における賃金や雇用機会の不平等の変化、その要因の解明、ならびに労働政策を中心とした政策評価である。現在の主要な関心は、新しい技術やマクロ経済環境の変化が、労働者の異質性に応じて雇用・賃金に与える影響を明らかにすることにある。2002年にミシガン州立大学で経済学Ph.D.を取得。大阪大学、筑波大学、一橋大学を経て、2016年より現職。独立行政法人経済産業研究所のプログラムディレクターを兼務している。主著・編著に『計量経済学』(2019年)、『労働経済学―理論と実証をつなぐ』(2017年)、『日本の労働市場―経済学者の視点』(2017年)、『法と経済で読み解く雇用の世界』(2014年)いずれも有斐閣。受賞:『日本の外国人労働力』(2009年・日本経済新聞出版・第52回日経・経済図書文化賞)、第4回円城寺次郎記念賞(2015年)、第11回日本経済学会石川賞(2016年)、第13回日本学士院学術奨励賞(2017年)、第13回日本学術振興会賞(2017年)など。

藤澤 優(ふじさわ・まさる)

株式会社デンソー 人事企画部 担当係長

2016年大阪大学大学院人間科学研究科修了。リサーチ企業や人材サービス関連企業、外資系飲食関連企業での勤務を経て現職。現在は、人事領域におけるデータやAIの活用推進及びガバナンスに関する業務に従事。その他、人的資本経営に関わる統合報告等の業務にも従事。一般社団法人ピープルアナリティクス&HRテクノロジー協会にて上席研究員として活動。ピープルアナリティクスの推進に関するワーキンググループの運営に取り組む。人事データ保護士、専門社会調査士。

山岡 晋太郎(やまおか・しんたろう)

ライオン株式会社 デジタル戦略部

2000年ライオン株式会社に入社。生産技術研究、新規事業開発を経て、2022年よりDX推進部門へ異動。現在はビジネス部門とIT・デジタル部門を橋渡しし、組織横断的にデジタル戦略を推進しながら、業務改革と新たな価値創造をリード。社内生成AI活用の促進に向けて、社内コミュニティの運営や説明会の実施、活用事例の創出・共有、さらに2025年からは組織変革の加速に向けて、AIエージェント開発人材の育成をスタート。

山本 龍彦(やまもと・たつひこ)

慶応義塾大学大学院 法務研究科 教授

慶應義塾大学法学部卒業。慶應義塾大学法学研究科博士課程単位取得退学。慶應義塾大学博士(法学)。慶應義塾大学グローバルリサーチインスティテュート(KGRI)副所長。総務省「ICT活用のためのリテラシー向上に関する検討会」座長、総務省「デジタル空間における情報流通の健全性確保の在り方に関する検討WG」座長、総務省「利用者情報WG」座長、デジタル庁「国際データガバナンス検討会」座長、総務省「デジタル時代における放送制度の在り方に関する検討会」委員、内閣府「消費者委員会」委員なども務める。主な著書に『デジタル空間とどう向き合うか』(日経BP、共著)、『憲法学のゆくえ』(日本評論社、共編著)、『おそろしいビッグデータ』(朝日新聞出版)、『AIと憲法』(日本経済新聞出版社)、『憲法学の現在地』(日本評論社、共編著)、『〈超個人主義〉の逆説─AI社会への憲法的警句』(弘文堂)など。

伊達 洋駆(だて・ようく)

株式会社ビジネスリサーチラボ 代表取締役

神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『組織内の“見えない問題”を言語化する 人事・HRフレームワーク大全』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)など。東京大学大学院情報学環 特任研究員を兼務。