貴社の従業員様が活き活きと働くために、優先的に改善すべき組織の課題点を定量的な視点で明確にする、人事課題調査・分析サービス『iTICE RESEARCH(アイティス リサーチ)』。 多店舗運営における各拠点の人事課題の明確化、事業統合後の組織活性化、業績低迷の改善などに、定量的な分析を実施する企業様が増えています。企業を支えるのは「人財」。企業の「元気」は従業員の「元気」から生まれます。強い組織作りのために、貴社も定量分析をしてみませんか。
カシオヒューマンシステムズ株式会社
つい最近までは、HRテクノロジー、特にビッグデータ分析を日本の企業が人事に導入するのはかなり先のことではないかという見方が一般的でしたが、ここにきて急速に現実味を帯びてきたという印象があります。今すぐ導入しないまでも、ある程度のリテラシーを持っておく必要はありそうです。まずHRテクノロジー全般が世界でどこまで進んでいるのかについてお話しいただけますか?
従来のような数値データの集計・表計算ではなく、タレントマネジメントに先端のITを使うといったHRテクノロジーの活用は、2000年代前半からアメリカで広がり始め、世界的には2000年代半ばあたりから広がりました。日本はその流れから10年くらい遅れている感じです。しかし、ビッグデータの活用となるとそこまでの時間差はなく、アメリカでもここ数年のことです。クラウドコンピューティングが普及してPCでもかつてのスーパーコンピュータのようなパワーを使えるようになったことから、アメリカで大量のデータを集めて分析し、タレントマネジメントに活用するようになった。そのためのソフトやサービスを提供するHRテクノロジーのベンチャーも一気に増えました。
金融の分野ではもっと前からビッグデータを活用していたようですが、HRのビッグデータ活用はアメリカでもわりと新しいんですね。
金融には元々金融工学がベースにありますから、データ分析が馴染みやすかったというのはありますが、それでも数年早い程度です。金融を皮切りに数年で色々な分野に広がり、最後に未開拓領域だったHRにも一気に広がりだした。今では企業がビッグデータ・アナリティクス部門を設置して、自社で解析を行うところも出てきています。
日本のビッグデータ解析はどうでしょう?
アメリカから1年くらい遅れている程度でしょうか。ビッグデータ解析を行うサービス会社やソフトウェアを開発して販売する会社が、日本でもかなり増えています。
人事のITの活用は、給与管理や採用管理など、業務ごとに数十年前からあったわけですが、それはごく単純なもので「テクノロジー」と言えるレベルではなかった。それがタレントマネジメントのように人事の情報管理・活用を統合して行うようになって高度化し、HRテクノロジーと呼ばれるようになってきたわけですね。採用や育成などをタレントマネジメントとして統合的にシステム上で行うことで、1人1人の管理が緻密にできるようになり、さらにビジネスにも結びつけて活用できるようになってきた。
そこへビッグデータ解析のハードルが下がり、プログラミングのスキルがなくても活用できるようになってきたことから、HRでの活用が一気に広がって、HRテクノロジーの飛躍的な進化をもたらそうとしているわけです。
膨大なデータが蓄積されるようになって、データの集積量が爆発的に増え、一説によるとこの1年でビッグデータの9割が蓄積されたと言われています。解析が比較的簡単にできるようになってきたとなると、これからはいかに活用するかが重要になりますね。解析の手法にはどんなものがあるのでしょうか?
まずデータには数値データとテキストデータがあります。数値データはExcelなどでも解析できますが、RやPythonなどの統計学に適した言語でプログラミングして解析します。テキストデータにはテキストマイニングという解析が必要になります。文章を文節や単語に区切って、使用の頻度や傾向などを分析する。解析手法も日進月歩で、より進化した新しいツールが次々と生まれています。解析するだけでなく、ディープラーニングのシステムにどんどんテキストを読ませて学ばせて、より賢くしていくといったことも行われていますね。それによって色々な判断の精度をあげていくというアプローチです。
先日Googleのディープラーニング・システムが囲碁のプロに勝ったというニュースが話題になりましたが、ディープラーニングとAIはどう違うのでしょうか?
ディープラーニングは機械学習の手法の1つで機械に何らかの情報を学習させる技術です。膨大な情報を学習させることで、ある条件下では人間より優れた判断をすることも可能ですが、それは必ずしも人間より賢いからではないんですね。情報を学習させなければ、例えば囲碁や将棋で名人に勝てても、五目並べで素人にも負けるということが起きます。
日本ではワトソンをAIの一種と考える人が多いですが、欧米ではAIとは呼ばず、「マシン・インテリジェンス」と呼んでいるようです。
IBM自身もワトソンをAIとは言わず、「コグニティブ・コンピューティング」と呼んでいますね。こうしたインテリジェントなシステムは、IBMやGoogle以外にも世界中で開発していて、中国でも国家プロジェクトとして開発が進められているようです。
それでも人間の知能とは根本的に違うわけですね?
AI、人工知能というのは何十年も研究されてきて、色々な定義がされていますから一概には言えませんが、「人間の脳の複雑な働きを真似たシステム」がAIだとすると、今開発ブームが起きているマシン・インテリジェンスはAIではない。人間の脳の働きを真似するわけではなく、アウトプットを人間に近いものにするだけです。
「人工知能」と言うと一般的にイメージしやすいけれども、中身の構造が異なるわけですね。それではインテリジェントなシステムの中で、ディープラーニングというのはどういう特徴を持っているのでしょうか?
わかりやすく言うと、ただ単純な判断を高速化するのではなく、階層で情報処理を複雑にしていこうというアプローチです。脳の複雑な構造や動きを真似るのは難しいけれど、階層を増やしていくことで構造を複雑にしていくなら、マシンでコントロールできる。層の構造を深くしていくことで、より深い学習ができる。これがディープラーニングの基本構造です。
わかりやすい仕組みですが、層が増えるごとに構造は等比級数的に複雑化していきますね。使い方も簡単ではなさそうです。
層を増やすと、それだけ計算にかかる手間が飛躍的に増大しますから、何を学ばせるかがとても重要になってきます。間違ったことを学ばせてしまったら、とんでもない答えがでてきてしまいますから、「教師データ」と呼ばれる、学ばせるデータをどうするかはかなり難しい。それでも色々なベンダーが去年あたりから続々とサービスにディープラーニングを実装していますし、ツールも続々出てきていますから、実用化への動きはかなり加速しています。
ソフトウェアごとに学ばせ方の違いがあり、それが能力の差にもなっていきそうですね。たとえば囲碁の指し手のパターンは10の260乗もあって、単純に学習させようとしても覚えきれないと言われています。Googleはそこに独自の工夫をしたようですが、ただ学習/経験を重ねて材料を増やしていくだけではディープラーニングにはならない。
ワトソンのアルゴリズムは非公開なので、中でどういう学ばせ方をしているのかわかりませんが、私と一緒に研究している学生たちの話では、たしかに使ってみると答えを出す速度が際立って速いとのことです。速さと正確さはトレードオフの関係にありますが、ワトソンは速さ重視の設計をしているのでしょう。
通常のコンピュータが行う機械学習とディープラーニングはどう違うのですか?
もともと機械学習はシンプルなものから複雑なものまで、あらゆるコンピュータの学習をさす言葉ですが、今は時代の流れから、機械学習と言えばディープラーニングをさすことが多いですね。