2020年4月3月、AI(ワトソン)を利用した人事評価・賃金決定について、会社が団体交渉に誠実に応じないのは、不当労働行為に当たるとして、組合は東京都労働委員会に救済申立てを行いました(写真は厚生労働省での記者会見の模様)。
現時点でも賃上げ交渉において、会社は従業員数や平均給与額、平均賃上額の開示を拒否し、さらに賞与でも会社業績達成度の算定根拠を示していません。この上、AIを盾にし隠せばまったく分からなくなります。
今回の事件は人事評価や賃上げにまでAIを導入することの問題性を問う、おそらく世界で初の事案になります。
ブラックボックス化されるAIの情報開示を要求
昨年8月、会社は突然日本IBMグループ社員に向けて人事評価・賃金決定にAIを導入することを発表しました。
組合は団交を通じて、AIの学習データの内容説明や、AIが所属長に向けて表示するアウトプットの内容を明らかにすることや、その際、格付規定(5条)に定めている5要素「職務内容」「執務態度」「業績」「スキル」「本給」をAIがどう判断しているのか関連性の具体的説明を求めてきました。
しかし会社は、「当該ツール(AI)に示された一つ一つの情報をそのまま社員に開示することを前提としていない」と主張して、頑なに情報開示を拒否しています。
これでは、AIのどの情報がどのように反映され、私たちの賃金がどのように決められるのかがブラックボックス化されてしまい、労使対等の立場での労働条件の決定ができません。2018年9月に都労委において結ばれた次の協定にも違反しています。「会社は労働条件・賃金交渉にあたっては、自らの主張の根拠となる資料を開示するなどして、組合の質問に誠実に回答する」
AIによる差別事例
例えば人物評価について、アマゾン社が2018年、採用時に補助的にAIを利用しましたが、女性に対して不利な評価をしていることに気づき、その利用を停止しました。
また、AIベンチャーを経営する東大特任准教授が2019年「弊社では中国人は採用しません」とツイートした際に「AIの『過学習』によるもの」と釈明するなど、AIによる不公平・不公正が指摘されています。
日本IBMにおいてもAIをブラックボックスとして人事評価・賃金決定に用いれば、差別を助長することが懸念されます。
労働政策審議会の提言と組合の主張は同じ
AIを従業員の人事評価に用いることについては、既に日本でも国レベルでの議論がなされています。
労働政策審議会労働政策基本部会は、2019年9月の報告書の中で、「AIの情報リソースとなるデータやアルゴリズムにはバイアスが含まれている可能性がある」「リソースとなるデータの偏りによって、労働者等が不当に不利益を受ける可能性が指摘されている」といった問題認識を示しました。その上で、「AIの活用について、企業が倫理面で適切に対応できるような環境整備を行うことが求められる。特に働く人との関連では、人事労務分野等においてどのように活用すべきかを労使を始め関係者間で協議すること(中略)によって行われた業務の処理過程や判断理由等が倫理的に妥当であり、説明可能かどうか等を検証すること等が必要である」と提言しています。
組合が会社に対し求めている説明内容は、まさに労政審の報告書の提言と同じです。