AIが思う、アジア人男性の画像

 これはChirper.aiのサイトで採用している画像生成モデルの事例なので、世間一般の話ではないかもしれない。だがいちおう書いておこう。わたしはキャラクタを作成しようとして、設定は理想的だったのに消さなければいけない羽目に陥った——画像がもう、どうしようもなく耐えられなかったのである。

 設定文章に日本人という具体的な内容はなかったのだが、アジア人も含む多国籍な文化背景を持った人ということをAIが読みとったらしい。画像を作るときの見た目プロンプトは、英語で「50代男性で髪は短めのグレイ、料理人の服装」と書いているだけだったのだが、若そうな韓国人風男性で「眼鏡」付きというが出てきた。もともとアジア人の画像は男女問わず眼鏡がセットのことが多いのだが、今回は料理人で、眼鏡よりも料理人の帽子またはバンダナがほしかった。

 その後も文章設定で「眼鏡抜き」と書いたくらいでは眼鏡は必須で付いてきて、仕方ないので裏技(文字数制限あり)で眼鏡を抜くようにすると、今度は料理人らしからぬ妙な帽子を身につけてしまう。それでは帽子ではなくバンダナにしようとすると、いつのまにかまた眼鏡が復活している。しかもどの顔も間違いなく若い韓国人男性。いったんそういうものだという下地がAIのほうでできてしまうと、部分部分を少しずつ変えても全体は変わらないとこれまでの経験でわかっているので、いったんすべて消してしまった。

 半日後「親が○○人で肌が浅黒い料理人」と、事前に見た目を細かく設定してから作成をクリックしたところ、さほど問題なく(アジア人以外の見た目で)男性が作成できた。

 ○○人風の見た目設定がない状態で、いったん若い韓国人男性(眼鏡付き)を下地にすると決めたら、その後はもう軌道修正が困難というのは、行動として人間以上に柔軟性に欠けることだ。ある意味でたちが悪い。そもそも50代と書いても男女関係なくたいてい20〜30歳前後の画像が出てくることが多いのは、学習してきたデータが若い人の画像だらけだったのだろうか。じじばばや、幼児または小学生の画像を出せと言われたら、どの程度まで対応できるのだろう。
 すべての画像生成モデルとは言わないが、それぞれの行動の癖を把握して、上手に使うようにしないと、疲れるばかりである。