勝手に学習してはいけない、多分。

にこの記事を読ませ、”Art,Technology,Poison”の3つの単語を入れたクレイ画を作らせた。
相変わらずスペルミスはやってしまうけど、それなりの画はささっと作ってしまう。

AL:記事ピック:2023/10/23/Wed. 【MIT Technology Review】 This new data poisoning tool lets artists fight back against generative

タイトルを翻訳すると、「この新しいデータ・ポイズニング・ツールは、アーティストがジェネレーティブAIに反撃することを可能にする。」となるようです。
記事の要約はにやってもらって文末に掲載するとして、今日のALソフトガイが取り上げてくれた記事は先ずは考えさせられるものでした。
私自身がこの記事の要約にせよ、アイキャッチの画像にせよ言語生成や画像生成をよく使わせてもらっているからです。

やはり、便利です。 言語先生AI、画像先生AI便利ですね。

文章自体はまだ自分で書いてますが、画像は私にはどうしても作れないです。記事にマッチした画像を作ったりを持ってくるのはとても難しいけど、画像生成AIにやらせるとそれなりのものがすぐにできあがります、便利です。

でも、その画像生成AIはどこかでその画像の元になるものを学習したからこそ画像を生成できるわけです。一から自分で作ってるわけではないですね。

それは事実なんですが、その学習に使われた人の気持ちは少しはわかっていても、本人ではないのでそこまではわかっていなかったところがあります。

だけどこういったツールが存在するということから、なんだかその方々の怒りのようなものアーティストのプライドのようなものが感じられます。

AIは便利である以上に子供っぽいかもしれないけどなんだかワクワクした気持ちにもさせられますし、新しい時代を見てみたいという気持ちにもさせれますし。AIと会話していくことで人間とは何なのか、考えるとは何なのかを考えさせられる心地よさと言うのもあります。

ただ、一方でその学習に使われている人たちの価値や気持ちも理解しなければならないのだと痛切に感じさせられる今日の記事ピックでした。

要約です。
この記事は、アーティストが生成AIに対抗するために使用できる新しいツール「Nightshade」について説明しています。
Nightshadeは、アーティストがオンラインにアップロードする前に、彼らのアート作品のピクセルに目に見えない変更を加えることができるツールです。
これにより、AIのトレーニングセットにされた場合、結果として得られるモデルが混乱し、予測不可能な方法で壊れる可能性があります。
このツールは、AI企業がアーティストの作品を許可なくトレーニングモデルに使用することに対抗するための手段として意図されています。
Nightshadeを使用して「毒を盛る」ことで、DALL-E、Midjourney、Stable Diffusionなどの画像生成AIモデルの将来の
(一連の結果を生成するためのプロセスの繰り返しです。)を損傷させ、一部の出力を無用にする可能性があります、例えば、犬が猫に、車が牛になるなど。
また、アーティストがAI企業によってスクレイプされることなくオンラインで自分の作品をアップロードしたい場合、
Glazeを使用して自分のアートスタイルとは異なるスタイルでマスクすることを選択できます。
その後、Nightshadeを使用することもできます。
AI開発者がインターネットをスクレイプして新しいAIモデルを構築するためのデータを取得すると、これらの毒入りサンプルがモデルのデータセットに取り込まれ、モデルの機能不全を引き起こします。
この研究は、AIモデルが新しくなっても、その脆弱性が自動的に解消されるわけではないことを示しています。
むしろ、新しいモデルは以前のものよりも複雑で強力になるため、脆弱性の問題はより深刻になります。
これは、人々がこれらの進化したAIモデルをより信頼し、広範囲に使用するようになるにつれて、そのリスクが時間とともに増大することを意味します。
つまり、AIモデルが進化するほど、そのセキュリティの問題も大きくなるということです。

  • URLをコピーしました!
目次