アルゴリズムはかつて、非常に穏やかなものとして描写されていた。計算の過程は明らかで、流れを制御でき、結果が一目瞭然と。アルゴリズムは近年、ビッグデータと結びつくことが多くなった。得点をつけ、順位を決め、格付けを行うことで、ユーザー、環境、推薦先と結びつき、自動的な推薦を行う。検索エンジンで表示されるサイト、電子商取引(EC)の商品推薦、SNSの「知り合いかもしれない人」、コンテンツ検索エンジンにおけるニュース推薦などは、アルゴリズム応用の豊富なシーンだ。
ところがアルゴリズムの広範な応用は一部の問題を引き起こした。先ほど英バーミンガムの警察当局は、「国家データ分析プラン」と呼ばれるシステムを開発中と表明した。これは住民のプライベートなデータ・資料の分析を通じ、市民の「犯罪指数」を予想することで、警察の事前干渉を促すことを目的とする。警察当局はリスク指数に基づき逮捕するわけではないと再三強調しているが、この情報は広く物議を醸した。
アルゴリズムには技術的なハードルがあることから、多くの場合、問題の責任を追及しにくく、被害が生じても補償できない。データ分析システムに自らアルゴリズムの「公平性・有効性」を確認させることは、人々が強い関心を寄せている問題であり、現実的な難題でもある。米シカゴ裁判所が2015年に使用した犯罪リスク評価アルゴリズムは、黒人に対する系統的な差別が証明された。黒人はこのシステムに犯罪リスクが高いと誤って判断されやすく、裁判官から長い刑期を言い渡される。また数百万人がこのアルゴリズムにより、保険、ローン、住宅賃貸などのサービスを受けられず、アルゴリズムに「監禁」されたようになっている。米ピュー・リサーチ・センターが発表した「市民のコンピュータアルゴリズムに対する態度」報告書によると、回答者の58%はアルゴリズムやその他のコンピュータプログラムが偏見を持っていると判断した。
アルゴリズムの設計、目的、データ使用などは設計・開発者の主観的な選択であり、その主観的な偏見がアルゴリズムに植え込まれる可能性がある。データの有効性と正確性も、アルゴリズム全体の決定と予想の精度に影響を及ぼす。設計の好み、データの不備、さらに公開し透明化できない「アルゴリズムのブラックボックス」により、アルゴリズムのフィルタリング、偏見、差別、操作が度々発生する。世界のインターネットプラットフォームは近年、スマート推薦システムを開発している。その多くがユーザーの使用の痕跡に基づき関連コンテンツを推薦する。アルゴリズムがスマートであるほど、ユーザーはいわゆる「情報の密室」に入れられやすい。これはつまりカスタマイズされた情報のことだ。これが長期化すると、ユーザーは情報の「自己監禁」の苦境に陥り、より広い世界の物事を理解する機会を失う。その結果、人々の視野が日増しに狭くなり、考え方が閉鎖的になり、頭が硬くなったり極端になる可能性もある。
ビッグデータという環境のなか、アルゴリズムのスマート化がもたらす問題の解消は、もはや不可避の課題になっている。アルゴリズムの改善に着手するよう主張する人が増えている。これは極めて困難であるが、踏み出すに値する一歩でもある。
「中国網日本語版(チャイナネット)」2019年1月8日