「方向性を決める」「責任を取る」ことは人間にしかできない
AIはあくまでもプログラムされたシステムであり、その行動は人間の方針に従っていなければなりません。
目的が示された上での、他律的(他からの命令、強制、利益など)な行動に責任の概念は生まれません。責任は人間の自由意志の裏付けによってはじめて存在する概念です。
そのため、人間が設定した目的に対して他律的に作動するAI自体に責任の概念はないと言えます。
もし、ビジネスで社会や他人に責任を感じないAIに人間が盲目的に従ってしまえば、やがて企業の利潤最大化という目的のために非倫理的・不正な行動につながる危険があるのではないでしょうか。
企業には株主価値最大化の義務があると同時に、社会的責任(CSR)も求められます。
つまり、企業は株主だけでなく社会との関係によって存在できるのであり、社会を犠牲にして自社の利潤を追求することは許されないという考え方です。
AIに人間が他律的に従うのではなく、自らの価値観に従った自由な意思決定によってのみCSRは実現できるのではないでしょうか。
出典:
AI(人工知能)で仕事がなくなるって本当?AI失業について考察してみた 4)