AIは作業はできるが、判断はできない。

 

結果に責任を持って、

  • 集めた情報・作成した資料の内容の正否
  • 資料をもとにGoサインを出す・出さない

を判断するのが人間で。

 

AIが出したものを、本当かどうか判断するのは、人間なんだよ

 

真実かどうか。

 

真実であっても、

それは判断に足るデータなのか。

 

人間に判断と責任がある限り、

人間はAIの上司であり続ける。

 

そう。

 

AIはただ、資料作りの早い部下なのだ。

 

その信頼性。

 

その資料から、

Goサインを出すかの判断は、あなたがするのさ。

 

ね?

 

工場で作られる製品でも、

最後は人の目で欠陥がないか確認するように。

 

部下の作った資料を、

最後は上司の目でお客様に見せられるものか判断するように。

 

AIはただの手段。

 

ちょっと作業の早い部下、

として使われているのだ。

 

今のChatGPT: はあー、AI君はそう考えるんだね。。参考にするよ、くらい。

そっくりそのまま、は信じない。

 

あくまで一意見。

 

間違ってるかもしれないし、

もし採用するなら裏どりをする。

 

正しい情報か調べる。

 

正しそうなら、取り入れる。

 

その程度。

 

AIってまだ、その程度の存在です。

 

(2025年3月)