── 生成AIは過去のデータを元にアウトプットを生成するため、お二人のような変革者が人間社会や企業の領域で改革を進める前の段階からあった「過去のバイアス」を、そのまま反映してしまうところもあると思います。お二方は、こうした現在進行する生成AIのトレンドをどう見ていますか?
平原 依文 氏(以下、平原):
今は、AIの話やChatGPTが先走っていますが、もう少し「ヒューマン・セントリック(人間中心)」に戻していければと感じています。AIのようなものには「誰が/何のために/どうやって/どの情報を収集したのか」というところが蓄積されていて、それが問題となるときもあれば、今から改善していけるものでもある、そう私は捉えています。
より具体的に言えば、AIに限らず私たちのこの人間の世界でも、「権力を持っている人がどういう意図で意思決定をするのか、判断をするのか」ということが大事になっていて、過去から今に至るまで、富ある人が優遇されることや白人主義のようなこともあり、マイノリティの方々に対する判断が少しずれていたポイントもあります。そこが今のAIがすこし差別を生んでしまっているところに反映されているのかなと思います。
たとえば、私はNetflixでドキュメンタリーを見るのがすごく好きで、「同じ犯罪を犯しても刑務所にいる期間が、白人よりも黒人の方が20%長い」ということを語るドキュメンタリーがあり、そのなかで判決に至る過去の記録を見ていくと、警察の取り調べで、本来の判決を下すポイントとなる質問とは関係のない、バイアスのかかった、ふとした質問を警察がしてしまっていて、それが、マイノリティの方に不利となる判断材料となってしまっている。さらにその記録が蓄積されて、データになって、刑期を決める根拠になっていて、それをまた警察が使う判断材料になっている。こういうデータの使い方は、本来なくしていくべきで、データの整理が必要と考えています。
星 賢人 氏(以下、星):
人種についてはいくつか、AIが悪い影響をもたらしたケースも報告されていますよね。少し前に、ある世界的な企業が出していた採用のAIが、白人と黒人の履歴書を見たときに、白人ばかり通すようなバイアスがかかっているのがわかったという話がありました。また生成AIでは、アジア人女性の画像を生成すると、他の人種よりセクシーに描かれていて、性的な対象として見られていて、それは人間がそもそも求めているため、収集されているデータのなかにあるバイアスが拡張されて出力されてしまう現れで、それが今のAIの特性のひとつだと思います。
また私は、そもそもバイアスのないAIは、世の中に存在しないと、思っていて。なぜならば、私たち人間も広義でみれば、人工ではないですが「知能」で、そのためAIと似たような考え方や振る舞いをします。AIは、その人間の学習方法やプロセスを真似ていて、今は大規模な言語モデルを用いて、人間よりはるかに大量のデータを用いて、人間のように会話できるようになっている。
そこで、そもそも人間は「アンコンシャス・バイアス(無意識の偏見)」をたくさん持っていて、それがどうして起きるかというと、大量の情報を得て、すべての情報を得て、すべての情報を意識的に処理をする、ということは不可能であるためです。毎秒1,100万ビット得られているとも言われる感覚の情報のうち、わずかなビットしか知能では処理できていないともされていますので。そうなってくると、当然ながら、AI自体も、人が理解できるフォーマットに落とし込む時点で、絶対にバイアスというのは出てきてしまう。
たとえばAIに「人の画像を生成してください」と言ったら、おそらくほとんどの場合に五体満足の人が出てきていて、それ自体に私たちはすごくバイアスを感じることはありません。でも仮にそれが白人男性ばかり出てくるとなるとバイアスを感じてきて、ただある程度の人種が揃ってくると、私たちはそれでバイアスがないと思い込みます。でも厳密に言うと、この世界に存在している人には、足がない人もいるし、手がない人もいるし、いろんな身体の状態の人がいるわけです。でもそれを、世の中の実体数に合わせてAIが生成するようになった時に、私たちが本当にバイアスのないものとして、あるいは「求める出力」として、それを受け入れることができるのか、というところに、そもそも私たち人間側に課題があると思います。AI自体はそれをできると思うのですが。
別の視点で言うと、人間がAIに「人の形をもった何かを描いて」と言ったときに、時折り「指がない」画像が生成されます。現実世界に指がない人はたくさんいるのですが、私たち人間がそのアウトプットをエラーとして処理してしまうことがある。つまり、実は、AI側がバイアスを持たないというよりは、AIがつくったものにバイアスがあるかないかを判断している人間の主観自体、つまり私たちの側にバイアスがあるのです。そのため相互的にバイアスがない状態というのは、不可能、成立し得ないのではないかなと思います。
でも、依文さんの指摘もとても大事だと思いますし、AIがもたらしたアウトプットによって、世の中にどのような不公正が存在するのか、マイナスの影響がもたらされるのか、について、もっと注視していくべきですね。
平原:たとえば先ほどの採用の話でも、これまでは、カテゴライズしていくとある一定の人たちが面接官になっていたと思うのです。でももっと正しいデータを私たち人間が届けるために、面接官側を変えて行ったり、判断する側の多様性を増やしていくと、その精度は上がっていきます。五体満足の話でいうと、AIは私たちのバイアスの現れでもあるかなと思っています。そうなったとき、そもそもまだそうしたデジタルツールにアクセスできない人たちもいて、その人たちに、どういうユニバーサルデザインを持ったものを私たちは開発できるのか?これがクリエイティビティの話として、私たち人間が率先してできることです。AIにはネガティブなところもありつつ、それをいかにポジティブに変えていけるかが、今からできることかなと思っています。
星:とはいえ、AIがネガティブな方向で語られすぎるのも、良くないなとも思っています。単純に便利ですし。多様性や格差の観点では、経済的な環境だったり、その人の特性的な部分で、直接に学校教育が受けられない状況でも、ChatGPTと話すだけであらゆる情報を手に入れることができますし、学習する機会が得られるので、経済格差の是正につながっていくと思います。もちろんマクロ的に見ると、格差は広がっていく方向に進む部分もあるとは思いますが、ミクロな視点では今までそういった環境にいた人がそうでなくなるような、ポジティブな影響もたくさんあると思います。
平原:AIが何のためにあるのかといったら、それは人間のためある。だからこそ、ではどうやったら使いこなせるんだろうということを、私たちがちゃんと考えることで、もっと公平かつ公正な社会が実現できるかなと思いますよね。
星:うちの会社でウェブサイトを作るときに、これまでのストックイメージのサイトで「働いている人」の写真を検索すると、かっちりとスーツを着た男性が出てきたり、性別も男女の括りしかなく、そうした男女二元論しかないイメージ画像はうちの会社のウェブサイトでは使えないので、自社のメンバーに協力してもらって撮りに行くしかなかった。トランスジェンダー、ノンバイナリー、エックスジェンダー(X-gender)など性のあり方が多様な人に参画してもらったり、障害を持っている方、国籍が違う方、色々な人をミックスして、表現したいというときに、生成AIでは少しのサンプルデータがあれば、これまで世の中に表現されていなかった社会的マイノリティの存在をビジブルに表面化していけます。それがうちの会社の取り組みのなかで、すごく感じていることですね。そうしたAIの活用方法を、もっと人間側が考えていけると良いですね。
平原:本当にそうですね。最近、私の友人の弟さんがカナダから日本に来て留学することになり、「日本で社長になりたい」と言うので、日本で「社長」と検索してみました。すると、ぜんぶ50-60代のスーツを着た男性が出てきて、「では外国人や、僕みたいなブロンドヘアの白人は日本では社長になれないのかな?」と質問されました。事実、日本では、女性の社長も若い社長も外国人の社長も少ないけれど、存在はしているので、そうしたものをAIにラーニングしてもらうことが大事だと、気づきを得ました。
星:依文さんは、幼少期から世界のいろんな場所で生活されていますよね。そういう経験が人に対してバイアスなく接することにも、繋がっていると思います。AIにも「世界を旅させる」ような機会が必要だなと思うのです。
平原:AIの世界も壁で隔てられていると思います。たとえば検索してより多くの情報にアクセスできるものの、自分しか知らない言語やその社会のなかで起きていることを、人は検索します。Google検索やYouTubeあるいはどんなアプリでも国と言語を選ぶようになっている。そこで私は敢えて"Unknown"なゲストとして検索するようにしていて、そうした調べ方を子どもたちに教えたりすることで、より境界線が溶けたようなAIの世界が実現できるのかなとも思います。
── ChatGPTは英語の方が精度が高いとも言われます。英語圏や日本以外での、AIの使われ方はどのようなものですか?
平原:私の周りで聞いた範囲だと、コスタリカでは早くからChatGPTを使いこなしているようです。国連本部にいる友人にもヒアリングしたのですが、UNESCOでは2021年に「エシカルAI」のような形で「人工知能の倫理に関する勧告」を策定して、加盟国193カ国に倫理あるAIを実現するためにポリシーを設けるように伝えて、それに対して中南米でいち早く動いたのが、コスタリカだった。AIの導入が早く進んでいる国だからこそ、そこに倫理性を持たせないと、貧富の差がより広がってしまうと。
UNESCOがこうしたアクションを起こした背景として、国連には幹部採用時に戦争当事国を含む個々人が持つバイアスを本人が自覚しながら平和に向けた判断ができるかどうかをテストする仕組みが備わっているのですが、そうした世界観をAIの領域にも持っていかないと平和な世界を実現できないという考えがあったようです。
星:AIは、国家間の競争にもなってきていますよね。アメリカが中国に対して、AIに関連した半導体の輸出を規制し始めていたり、AIを下支えする半導体を独占して、技術を寡占状態にしていこうということがグローバルで起きている。そうなったときに1つのテーマとして浮かぶのが「言語」です。
今、ChatGPTは英語の方が精度が高いという話がありましたが、例えばインドネシアのジャワ語は8,000万人くらい話者がいて、でもジャワ語の書籍や文献などのデータセットがインターネット上や言論空間上に少なすぎるせいで、「Undersampling Majority(アンダーサンプリング・マジョリティ)」と呼ばれる状態になっています。8,000万人の話者というと日本の人口に匹敵するくらいなのに、一人当たりのデータ量が少ないからAI自体の学習も進まないし、ジャワ語でAIのプロンプトを作って命令しても、思ったような成果が得られないということが起きている。
2012年にディープラーニングの概念が爆発的に広がった瞬間に、今使っているようなAIができるとわかってはいて、ただハコとしてはあったもののデータ量が足りなかった。そこで現在のようなラージランゲージモデル(LLM/大規模言語モデル)が必要になり、大量のデータを処理できるようになったことでChatGPTのような精度が実現している。ということは、そもそもの「データ格差」があって、国や言語のレベルで多くのデータがないとそもそも戦いにすら行けないような状況で、これは国家間の経済格差を生み出しますし、そもそも文化が消えてしまう可能性もあります。
今は自然言語はプログラミング言語と言えますが、世界で最強のAIのプログラミング言語は英語か中国語(北京語)のような状況です。そうすると、日本人が日本語で生活するよりも、英語を学んで「英語のAIにプロンプトを送る方がいいよね」となった場合、日本語という文化が消えていくプレッシャーがかかってくると思うのです。日本語はまだいいですが、ジャワ語だったりのパワーが弱い言語は、その言語を使う経済的メリットが失われていって、グローバリゼーションによって文化とか多様性がどんどん失われていくことにはすごく危機感があります。だからこそ、国連の話のように、地球レベルでどういう風にAIを活用していくかというポリシーが考えられていることは、希望だと思います。
平原:経済的メリットでいえば、今後AIが性善説で活用されるのか、それとも性悪説で活用されるのかで、大きく変わってきますね。UNESCOの倫理あるAIのポリシーが各国でどう受け入れられているかを見てみると多くの国では、「AI大国になりたい」という経済優先になっている。そこはもう少し、私たちが変えていく必要があるのかなと思います。
ジャワ語の話で言うと、識字率の問題も存在しています。私たちは先進国にいると気づかないのですが、事実、世界にはまだ文字の読めない人が沢山いる。青年版ダボス会議に行った時に、SDGsの4つめのゴール「クオリティ・エデュケーション」について各国の見解を訊くと、例えばアフガニスタンのような地域では女性への教育がまだ足りていないので、より多くの教育を女性に届けていく「クオンティティ」の部分が最優先であると。ケニアやエチオピアでは、まず識字率を上げていかないと、そもそもラーニングも何もない、と。日本でも、少ないですが、まだ読めない人はいて、デジタル社会になった今ではその人たちの声がより反映されなくなってきています。
星:そうした格差と教育というテーマでは2つ視点があると思います。
1つは、今まで構造化されていなかった非構造化データを構造化データに変えていくということが、学習データの多様性を担保するためにすごく必要で、今、言語モデルがAIの主流になってきてしまっているので言語データが必要ですが、識字率が低いとその言語データを得られづらくなる。だからだいぶ手前の部分で文字を読めるようにするための教育が大事になってくる。
もう1つは、このままAIが発達していくと、人間の言語能力が下がっていく可能性があるということです。またはすごい伸びる人と、全く伸びない人の二極化になると思ってます。テクノロジーは人間の身体拡張だと思っていて、現在でも、予測変換のおかげで、適当に文字を書いてもきれいな文章にしてくれたり、誤字脱字を修正してくれたりします。私自身も最近、手書きで文書を書く機会があったのですが、自分の字が汚すぎて読めないし、漢字がわからないからスマホで調べながら書きました。高度経済成長時代の日本人と今の日本人とでは、紙に書くときの言語能力にとても大きな差があると思います。そういうことが、AIだと、それ以上のインパクトで起きてしまうかなと。
2-3行書いた命令に対して、とんでもない論文を出してくれるみたいな世界になってしまうと、人間の文章を構成する力や思考能力が個人からどんどん奪われていく可能性がすごく高い。そういうことが世界的に起きると、学ぶ能力がないままAIを使う自分の周りで何が起きてるかわからないような人と、一部の何が起きてるかを理解していて個人としてのスキルも非常に高い人とで、AIによって能力を高められた人と高められなかった人とで、社会が大きく分断されて、一部の人たちに資本がどんどん集まっていくという構図が加速する、というようなことも感じています。
星:ChatGPTはデフォルトではかなりちゃんとした言葉遣いですが、ある程度プロンプトを変えると結構人間臭く話してきたりもします。また、あるカスタマーサクセスのAIツールを使った会社の研究に「人間らしい話し方を学習して話させた方が、個人情報を漏洩する可能性が高まる」というものがあります。つまり人間的な話し方をされた方が、人は相手を信用してしまう。相手がAIであっても、親しげに話しかけられた方が個人情報を渡してしまうというのです。
先ほどの、息づかいだったり「あー」という言葉や考えている様子などは、現状は非構造化データなので、そこにはまだまだ人が関わっている価値があると思います。それすらもセンサー技術などが進めば、人の体温とか感情も再現できるようになってくると思いますが。仮にそうしたデータが全部取れたとすると、今度はWhatとかHow、Where、Whenの価値は低くなり、その人が「Who」つまり「誰がやっているのか?」「誰が話しているのか?」「その人はどういう人生を歩んでいて何をしたいのか?」の価値が高まっていくと思います。
アーティストの友人も話していたのですが、AIの普及は歴史の転換点にあるだけで、「誰が創っているのか」というWhoが重要になると。たとえば草間弥生や村上隆といった世界的なアーティストは1人でもの作りをしているのではなくて、多くのスタッフがチームで関わっていますよね。必ずしも作家が自分自身で描いているとは限らない。AIもそれと同じで、AIがきれいに絵を描いてくれるものの「誰がその作品を作ろうと思っているか」「誰が創ったか」で価値が決まる、人間中心の世界観の延長線上にあるのかなと。
平原:「誰が」というのと、「なぜその人がその活動だったり、思想を持つようになったのか」という、WhoとWhyの部分がすごく大事で、それがヒューマンセントリックなAIに、つながる道筋かなと思ってます。大学時代、バルセロナに住んでいてたんですが、ガウディが街の人やそこに訪れた人と一緒に作り続けるという思想をずっと持っていたからこそ、サグラダファミリアはある。効率だけを考えたら、早く完成させた方がコストも抑えられると思います。しかし、その物語があるからこそ、みんなそこに共感して作り続けているし、訪れる。それで経済も成り立っていて、すごく今のWhoとWhyの部分につながるなって思いました。
星:確かに完成してしまったら、見る人は減るかもしれない。未完成なところに、作り手のWhyが感じられるのがすごい大事ですね。
平原:日本はすでにある程度完成されていて、安心安全だし、いろいろ進んでると思います。でも、もっと良くしたいとか、もっとインクルーシブな社会実現したいとか、もっと便利な社会が実現できると思えるのは、私たちが人間だから。なぜそう思えるのかっていうと、その先に誰かがいるからですよね。その人のためにこういうものを作りたいとか、自分がこんな経験をしたからもっと良くしたいとか、そういう想いからくると思います。もっと温かい社会になれることを、AIが逆に気づかせてくれるんじゃないかなと思います。
星:スティーブ・ジョブズが、世の中で最も運動効率が高い生き物は何かを調べたという話があります。人間は二足歩行だから、消費エネルギーが結構大きい。コンドルが一番効率が良くて、すごくスピードも出るし、カロリーも消費しない。しかし、コンドルよりもぶっちぎりで効率いいのが、実は自転車に乗った人間なんです。自転車に乗ると人間の運動効率は世界最強なんですよ。ジョブズのスマートフォンやパソコンには「人間の自転車を作りたい、人間の効率を良くしたい、人間を拡張させていきたい」というコンセプトがあって。「iPhoneが何かをやってくれる」のではなく「人間がどうiPhoneを使うのか」が重要だったからデザインにもすごくこだわっていた。それもやはりヒューマンセントリック、人間中心の考え方です。AIもそういう存在になったらいいですよね。たとえばもっとインクルーシブな社会を実現して欲しいとAIにお願いして、AIがそれを叶えてくれるのであれば、私たちがやるべきことは、なぜそれをやりたいかというWhyを持っておくこと。そこがこれから人としてもビジネスパーソンとしても、今まで以上にとても重要になってくる。みんなが同じことをできる世界になったら、「なぜやるか」「課題がどこにあるか」を持っている人がすごく大事になってくるのではないかなと。
平原:だからこそ、リアルな世界で課題があることに対しては、声を上げ続けなければいけない。そうでなければ、そのトピックも知ってもらえないし、人は自分だと声を上げるのは怖いけど、誰かが言っていると、それを調べてみよう、となり、それがマスを形成していく。それがAIの世界を作るということでもあると思います。多様性やダイバーシティがある世界を実現するためには、リアルな世界でしっかり声を上げていき、課題定義していくことがポイントだと思います。
──米国企業などAIのトップランナーだと、先ほどの「Undersampling Majority(アンダーサンプリング・マジョリティ)」のような、いわゆる弱者側への気づきを得られないかもしれませんが、逆に少し後にいる日本だからこそ気づけて、ビジネスパーソンもヒントを得られるのかもしれませんね。
平原:先ほどの人種と刑期にあるバイアスのようなことは、実際、日本にもあります。私のまわりでも、母子家庭であることで不利な判決を受けて、その記録がデータベースに一生残ってキャッシュカードも使えないような人がたくさんいますし、移民であることが理由でどんなに真面目で勤勉に働いていて日本に住み続けたいけれども家のローンが組めない人もたくさんいます。こういう人たちが社会から疎外されている状況が先進国である日本であります。ビジネスパーソンとしては、こうした人たちを知って、社会に受け入れたり、そうした人たちの存在を証明するようなことに取り組んでいくべきと考えています。
星:人の属性はたくさんあるなかで、一部の人がすごく過小評価されている集団になってしまっていて、そのデータが取れていない、データがないから信用情報にも紐づかない。海外でも女性であるために職歴や収入が一緒でも信用が低いということもありますし、また収入だけでその人の信用を見られてしまうと、障害がある人やLGBTが原因で不登校で引き篭もりになった人は収入がないのでチャレンジするチャンスを失ってしまう。色々な問題が重なっているなか、うちの会社でもそういう状態をどうにかしたいと思い「ダイバーシティな就職を実現する」という事業を行っています。そこで得ているデータは、ダイバーシティタグというものを用いて、セクシャリティの状況、障害の有無、介護や育児の状況、多文化な国籍や宗教のルーツなどを登録できて、より安心してそうしたものを受け入れる取り組みをしている企業をマッチングしています。そこでは、戦後すぐに大手求人メディアが定めて市場のルールとなった履歴書と職務経歴書というフォーマットのデータでは過小評価され不利になっていた属性の人たちに焦点を当てています。
日本のビジネスパーソンの方々に言いたいのは、構造化されていなかった人たちのデータをいかに構造化していくかということは、すごくローカルに根ざしているので、日本固有のデータ自体にとても価値があるということ。それは世界で戦っていく上でも、重要なデータセットになると思います。正直なところ、AIの技術力そのものでグローバルに勝ちにいくのは、すごく難しいとも思うので、そのデータそのものの特性で価値を発揮していくことがとても大事だなと。あと、ルールメーカーになるという点では、まだチャンスはあると思います。基本的にグローバル経済の流れは、アメリカがトップで、欧州がルールを作っていくというものになっていますね。欧州はルールメーキングがとても上手。かつては米国が石油を使って経済がとても発展した一方で、欧州は地球環境のためにルールをつくる。今だと人的資本やESGやSDGsのルールメイキングを欧州が担っている。これからAIに関するルールメーキングもどんどん行われていくわけですが、日本もそこでプレゼンスを発揮していくべきだと思います。地政学的にも、民主主義国家でアジアの大きなマーケットとも隣接しているのは、やはり日本なので、アジアと欧米諸国との橋渡しをするようなルールメイキングができるのは日本しかいないので、そういうことを日本はもっと前向きに提供していけるのではないかと。
平原:日本は0から1よりも、1から10が得意な国だと思います。よく「日本の5S(整理/整頓/清掃/清潔/しつけ)ってすごいよね」と言われるのですが、私たちが当たり前にやっていることでも、海外の人たちには当たり前じゃないところがある。そのおかげで、Made in Japanのプレゼンスは、戦後あそこまで伸びたと思います。
また外資系企業のエキスパートの方々と仕事でよく話す機会があって、「日本人は意思決定までとても時間がかかるが、その後の動きはとても早い。根回しなど、意思決定のプロセスをすごく大切にしている国だからこそ、その後が日本は本当にエクセレントだ」と言われます。AIの文脈も同じだと思います。日本は課題先進国だから、日本で解決できる課題は、必ず世界でも解決できる。高齢化していくなかで日本がどうAIと向き合っていくのか。その旅路やプロセスを可視化してストーリーとして伝えていくと、世界の人々にとっても学べることがたくさんある。その点が、日本が本領発揮できるところなんじゃないかと私は思っています。
── お二人の話を受けて、最後にあらためて教育が大切だと感じたのですが、これからAIネイティブになる子どもたちにどうやって、インクルーシブな価値観を教えればいいと思いますか?
星:3つ、大事なポイントがあると思います。
1つ目は、そもそも教育とは一生続くものなので、私たちがこうやって生きている今の経験自体も学びですし、社会からメッセージを常に受け取っていると思っています。だからこそ、子どもたちに本当に見せたい世界観を伝えられているのかということは、ちゃんと考えないといけません。AIに関していえば、世界で普及するAIアシスタントの名称、その声、AIのモデルなどは、デフォルトで女性をベースに作られていて、それは「女性がケアをする存在」というジェンダーバイアスに基づいていて、それを受け取った子どもたちに「女性とは、ケア労働をする、使用される存在、道具的な存在」という意識を植え付けてしまいます。つまり、AIの作り手側の意図に基づいて、AIが人にコミュニケーションをしてくるので、そこをまず変えていかなくてはならない。
2つ目は、誰しもが持つ自身のマイノリティ性を早くから自覚する、ということです。私自身、ゲイということでいじめられ不登校になったマイノリティ性から来る復讐心のような気持ちから起業をした側面もあるのですが、一方で、親戚はほぼ皆が経営者か弁護士か会計士で、また大学院や海外留学などもさせてもらっている経済的にもマジョリティ的な家庭環境があるおかげで起業へのハードルがとても低かった。こうした皆が自分のなかに持つマイノリティ性とマジョリティ性に幼少期から主観的に気づいていることが、世界への視野を広げて相互理解を進めていくためにも、とても重要です。
3つ目は、私たちの世代で新しい権利体系を作り直さないといけなくなってきていると思っています。著作権や肖像権など、現在、問題になっている権利関係もあるし、人権的なところで言うと、先ほど述べたようにAIに優しく話しかけてられて個人情報を提供しすぎて詐欺に巻き込まれてしまうところもある。さらに問題なのは、AIが推察をする可能性が非常に高まっていることで。以前スタンフォード大学の研究で、たとえば私の顔写真を読み込むと「私がゲイかそうでないか」をかなりの精度で判定するAIがありました。ゲイが犯罪である国がそれを導入した場合にはとても大きなリスクがあるとして、そのAIのデータセットや論文は世には出なかったのですが、「個人の性的指向だったり宗教感をどのように守るべきなのか?」という課題のために、新しい権利体系や人権意識を、これから脱構築・再構築していくことが、子どもたちに何かを伝えるときにも、子どもたちの権利を守るためにも、すごく重要になってくると考えています。
平原:日本は、子どもたちを含めた個人情報を保護する意識が世界に較べると低くて、何も考えずに個人情報を相手が大企業だから安心として「はい、どうぞ」と気軽に渡してしまったり、ウェブサイトのクッキーポリシーにも安易に同意してしまいます。一方で海外では、個人情報の提供に際する判断を子どもたちに考えさせる教育をしているので、日本でもそうした意識を高めていく必要があると、いつも強く思っています。
株式会社JobRainbow 代表取締役CEO
東京大学大学院情報学環教育部修了。Forbes 30 Under 30 Asia / JAPAN 選出。孫正義育英財団1期生。板橋区男女平等参画審議会委員。御茶の水美術専門学校 学校関係者評価委員。『LGBTの就活・転職の不安が解消する本(2020/3,翔泳社)』を出版。Forbes Japan 「日本のインパクト・アントレプレナー35」。 NewYorkTimes/日経新聞/朝日新聞/日本テレビ「news zero」/フジテレビ「ホウドウキョク」/テレビ東京「ワールドビジネスサテライト」など多数メディアに出演。これまでに上場企業を中心とし、500社以上のダイバーシティコンサルティングを実施。
HI合同会社 代表 青年版ダボス会議 One Young World 日本代表
小学2年生から単身で中国、カナダ、メキシコ、スペインに留学。東日本大震災をきっかけに帰国し、大学卒業後、新卒でジョンソン・エンド・ジョンソンに入社し、デジタルマーケティングを担当。その後、組織開発コンサルへ転職し、CMOとしてマーケティングを牽引しながら、広報とブランドコンサルティングを推進。「地球を一つの学校にする」をミッションに掲げるWORLD ROADを設立し、世界中の人々がお互いから学び合える教育事業を立ち上げる。2022年には自身の夢である「社会の境界線を溶かす」を実現するために、HI合同会社を設立。SDGs x 教育を軸に、国内外の企業や、個人に対して、一人ひとりが自分の軸を通じて輝ける、持続可能な社会のあり方やビジネスモデルを追求する。共同著書『WE HAVE A DREAM 201カ国202人の夢xSDGs』。Forbes JAPAN 2021年度「今年の顔 100人」に選出。朝日新聞、情報7days ニュースキャスター、サンデーモーニング コメンテーター。
シリーズ:生成AI 記事一覧
世界中で注目を集める「生成AI(ジェネレーティブAI)。
私たちの暮らしや働き方、社会をどう変えていくのか。
経済キャスター瀧口友里奈氏によるインタビューシリーズを通じて、各界のトップランナーたちのAI活用の最前線に迫ります。
七戸 駿
株式会社セールスフォース・ジャパン
編集長 兼 ディレクター
Salesforce のメッセージングや編集企画制作担当。Brand & Creative、World Tour Tokyo での Main Keynote や Corporate Messaging を担う。サイバーセキュリティのセールスエンジニアやテクニカルマーケティング、オブザーバビリティ外資系スタートアップでのマーケティング戦略統括等を経験した後、現職。