top of page

Statement (Summerized ver.) *English Follows

 穴居人が壁のヒビや窪みを使ってバイソンを描き、夜空に浮かぶ無数の星々を線でつないで星座が生まれたように、人は太古から「見立て」の欲望をもってきた。人の視覚脳は、ランダム情報にパターンを見出すアポフェニア作用にとらわれ、蜃気楼のようにイメージを見出してしまう。

ケヴィン・ケリーの「テクニウム」理論は、テクノロジーを生命の生態系のように捉えるものだ。リチャード・ドーキンスの「生命は眼球をつくりたがる」という主張をあわせて参照すると、AIも視覚脳構造の組織化を始めているかのように思える。

 AI 開発の基礎は人間の脳を模倣しているからこそ、人とテクノロジーの「見る経験」を対比することはできないだろうか? 視覚とテクノジーの交差点を出発点に、私はAIのバイアスを利用して、機械の眼に幻を見させる認知心理学的な実験を始めた。

 私はまずTVの受信部を接触不良にし、ニュース番組などにグリッチを発生させた液晶画面をデジタルカメラで撮影した。そのデータを回転・トリミングし、何か分からなくなったノイズ画像を「洞窟の壁」として、AIが搭載された写真編集ソフトに入力し、風景画像認識・生成システムを撹乱した。機械の知性は無意味で逸脱した情報を前にバグり、星の数ほど機械学習した現実風景を強引にパターンマッチングして奥行きや視点が破綻した風景画をなんとか秩序立てようとでっち上げる。

 AI がバージョンアップされるたびにその出力は変化するため、時間を置いて同一データの入力を繰り返し、その変容を観察している。当初、その出力結果は都市風景や自然物など、人間が理解できる風景が多かった。しかしAIの進化に伴い、その風景観の抽象度が増している。

 脳科学における「予測符号化」理論は、人間の知覚を“受動的な入力”ではなく“生成的なモデル”として捉え直している。私たちが「ものを見る」とは、外界をそのまま見ているのではなく、常に世界を予測し、誤差を通じてモデルを修正し続ける推論プロセスだ。この観点からすると、生成AIは人間の視覚システムのシミュレーターとして、現時点でもっとも正確に「外界を生成している装置」と言えるだろう。​写真術はその登場時、自然そのものが知覚するように見たものを感光版に写し取ることから、世界最古の写真集のタイトルでもあるように「自然の鉛筆」と称された。そのテクノロジーの系譜を受け継ぐ画像認識・生成系AIは、「自然の描く者」として進化を続けている。

 本作は、ギリシャ神話のオリオンの死に関するエピソードが着想源のひとつとなっている。ギリシャ神話に登場する狩猟の女神・アルテミスは、空目によって最愛の人を殺してしまった。アルテミスが巨人オリオンと恋仲にあったことに嫉妬した彼女の兄アポロンはある日、海を泳ぐオリオンの後頭部を指し示し、「あの岩を射て、弓の腕前を見せよ」と妹をそそのかす。かくて騙されたアルテミスは、オリオンの後頭部めがけて矢を放ったのだった。

 

Just as prehistoric humans used the cracks and contours of cave walls to depict bison, and connected countless stars in the night sky to form constellations, humans have long possessed a desire to “see through” things—to project meaning onto the unseen. Our visual brain is captivated by apophenia, the tendency to perceive patterns in randomness, and inevitably constructs mirage-like images out of chaos.

Kevin Kelly’s Technium theory views technology as an ecosystem of life. In conjunction with Richard Dawkins’ assertion that “life wants to make eyes,” one might say that AI itself has begun to organize a kind of visual consciousness. Since the foundation of AI development is modeled after the human brain, could we not compare the act of “seeing” between humans and technology? Starting from the intersection of vision and technology, I began a cognitive-psychological experiment that exploits AI’s biases—an attempt to make the machine’s eye see illusions.

To do so, I first caused signal interference in a television receiver, photographed the glitching screen of live broadcasts such as news programs, and then rotated and cropped the resulting images until they became unrecognizable noise. I treated these as “cave walls” of the contemporary media environment and fed them into image-editing software equipped with Adobe Sensei, intentionally disrupting its landscape recognition and generation system. Faced with meaningless and deviant data, the machine intelligence malfunctioned—desperately pattern-matching the countless landscapes it had learned, fabricating images where depth and perspective collapsed, as if trying to impose order upon chaos.

Because the AI’s output changes with every version upgrade, I have repeatedly input the same data over time to observe its transformation. In the beginning, the results resembled recognizable urban or natural landscapes. But as AI has evolved, its imagery has become increasingly abstract and complex—drifting beyond human comprehension.

In neuroscience, the theory of predictive coding redefines perception not as passive input, but as a generative model. To “see” is not to perceive the world as it is, but to continuously predict and revise through cycles of expectation and error. From this perspective, generative AI can be regarded as the most accurate simulator of human perception to date—an apparatus that generates the external world itself. When photography first emerged, it was called “The Pencil of Nature,” as it captured the world as nature’s own act of seeing. Inheriting this lineage, today’s image-recognition and generation-based AI continues to evolve as “The Draftsman of Nature”

The conceptual origin of this work also draws from the Greek myth of Orion’s death. In the story, Artemis—the goddess of the hunt—kills her beloved Orion through a tragic mistake of perception. Her brother Apollo, jealous of their love, pointed to Orion’s distant head as he swam across the sea and deceived her: “Shoot that rock and show me your skill.” Unaware of the truth, Artemis released her arrow—and struck the one she loved.

Statement (Original ver.)

​*English Follows

 アルタミラの洞窟で壁のヒビや窪みを使ってバイソンが描かれ、夜空に浮かぶ無数の星々を線でつないで星座が生まれたように、人は太古から「見立て」の欲望をもち、そこに不在のものを想像してきた。人の視覚脳は、混沌とした世界のなかに一定のパターンや徴を探すアポフェニア作用にとらわれ、蜃気楼のような視覚像を人それぞれに見出してしまう。

『 WIRED』創刊編集長で、サイバーカルチャーの論客であるケヴィン・ケリーが提唱する「テクニウム」の理論は、テクノロジーの進化を生命の生態系のように捉えるものだ。生物学者リチャード・ドーキンスの「生命は眼球をつくりたがる」という主張をあわせて参照するならば、いまや私たち誰しもが何らかのかたちでかかわり、共に育てるAIも、視覚脳構造の組織化を始めているかのように思える。

そして、その認識のアルゴリズム(ものの見方の手続き)は人間が定めるものであり、私たちと同じようにバイアスの制約からは逃れられない。

 AI 開発の基礎は人間の脳神経回路網を模しているからこそ、人間とテクノロジーの「見る経験」を対比することはできないだろうか? 視覚とテクノジーが交差するところへの興味を出発点とし、私はAIのバイアスを利用して、機械の眼に幻を見させる認知心理学的な実験を始めた。

 私はまず液晶TVの受信部を接触不良にし、リアルタイムで放送されるニュースなどの番組にグリッチを発生させた画面をデジタルカメラで撮影した。その写真データを回転・トリミングし、コンテクストをずらしたこれらの画像を「現代的メディア環境における洞窟壁面」として、AI「AdobeSensei」が搭載された写真編集ソフトPhotoshopに入力し、風景写真の画像認識・生成システムを撹乱した。機械の知性は無意味で逸脱した情報を前にバグり、星の数ほど機械学習した現実風景の特徴を強引にパターン認識してフォト・コラージュしながら、線遠近法を無視して奥行きや視点がまだらに破綻した風景画をでっち上げる。まるでカラヴァッジョのような近代の画家がバラバラの対象を1 枚の絵に合成したように、あるいは、一度どろどろに体組織を溶かした蛹が蝶となるように、人類の集合的視覚像を再組織化したピクチャーがこうして出来上がる。

 AI がバージョンアップされるたびにその出力は変化するため、時間を置いて同一の入力を繰り返し、観察を続けている。Adobe Senseiによる画像生成を始めた当初、その出力結果は都市風景や自然物など、人間が理解できる風景が多かった。しかしAIが進化するに従い、その風景観の複雑さや抽象度が増し、見る者の理解が及ばなくなってきている。

 さらには、ボケた写真を高解像度化するツールに何度も過剰にかけることで、AIモデル(ニューラルネットワーク)が 元データにない細部・テクスチャ・輪郭情報 を推測して補完した。既知の写真データ学習からのパターン類推で補完させることで、意味や解釈が圧縮された独特な質感が浮かび上がった。

 近年、脳科学における「予測符号化」の理論は、人間の知覚を“受動的な入力”ではなく“生成的なモデル”として捉え直している。視覚情報は、単に「目で見た」だけでは完結しない。脳の各部位が連携して、過去の記憶と照合、期待・文脈と一致するなど、脳が意味を再構成する。つまり私たちが「ものを見る」とは、外界をそのまま見ているのではなく、常に世界を予測し、誤差を通じてモデルを修正し続ける推論プロセスだ。この観点からすれば、生成AIは人間の視覚システムのシミュレーターとして、現時点でもっとも正確に「外界を生成している装置」と言えるだろう。AIが生み出す像は、データの模倣ではなく、むしろ人間的知覚そのもの─予測・誤差・修正という生成的プロセス─の反映にほかならない。

 写真術はその登場時、自然そのものが知覚するように見たものを感光版に写し取ることから、世界最古の写真集のタイトルでもあるように「自然の鉛筆」と称された。そのテクノロジーの系譜を受け継ぐ画像認識・生成系AIは、「デジタル・ネイチャーの鉛筆」としてただ知覚するだけに留まらない。見るものを理解・解釈する認識主体として地球を覆う計算機群の目となり、虚実の迷彩を描きつつ、私たちをより巧妙にスフィアの中に包み込む。

 本作のタイトルとコンセプトは、ギリシャ神話のオリオンの死に関する話が着想源のひとつとなっている。ギリシャ神話に登場する狩猟の女神・アルテミスは、空目によって最愛の人を殺してしまった。アルテミスが巨人オリオンと恋仲にあったことに嫉妬した彼女の兄アポロンはある日、海を泳ぐオリオンの後頭部を指し示し、「あの岩を射て、弓の腕前を見せよ」と妹をそそのかす。かくて騙されたアルテミスは、オリオンの後頭部めがけて矢を放ったのだった。

 この世は信じられているよりも、ずっといいかげんにコピペされたバージョンだらけで出来ている。意味の誤読が、この世界を残酷なものにも、豊かなものにも変えてしまう。思い込みが人を傷つけ、コピーエラーが芸術や生物の進化をドライヴする。オリジナルとモドキ、人と道具は集積し、いまも誤配が別様の星座を結び続けている。

 

Just as the cracks and bumps on the walls of the Altamira caves were used to create paintings of bison, and the countless stars in the night sky were grouped into constellations by invisible lines, humans have had a desire to interpret and imagine things that are absent from sight since time immemorial. The human brain is caught up in an apophenia that looks for certain patterns and signs in a chaotic world, and each person lands upon a visual image like a mirage.

 

The theory of “Technium,” proposed by Kevin Kelly, founding editor-in-chief of WIRED and cyberculture commentator, sees the evolution of technology as an ecosystem of life.

Referring to biologist Richard Dawkins’ assertion that “life wants to make eyes,” it naturally follows that AI, which we all now nurture and interact with, is beginning to organise its own brain structure. The algorithms of recognition—the procedures for seeing things—are defined by humans and, therefore, are not free from bias.

Given that the human brain’s neural pathways serve as a model for AI development, it wouldn't seem unreasonable to compare the human and technological experience of seeing. My interest in this intersection of vision and technology led me to explore a cognitive psychological experiment using AI biases to make the machine’s eyes see illusions.

For my first experiment, I forced the receiver of an LCD TV to malfunction and then photographed the resulting glitches on the screen in real-time during programmes such as the news broadcast. I rotated and cropped the image data and input these context-shifted images into Photoshop, equipped with the AI—Adobe Sensei, to use as a kind of modern version of the cave wall to disturb the system’s image recognition and generation of landscape photography. Machine intelligence bugs when faced with meaningless and deviant information, forcibly recognising patterns and photo collages of real-life landscape features that have been machine-learnt, while ignoring linear perspectives and making up landscape pictures that have no feasible depth and perspective. It is as if a modern painter such as Caravaggio had combined disparate objects into a single picture, or if a chrysalis that had shed its sludgy

body tissue to become a butterfly, creating a picture that reorganises the collective image of humanity.

When I first started generating images with Adobe Sensei, the output was often of landscapes familiar to humans, like urban landscapes or natural objects. As AI has evolved however, the complexity and abstraction of these landscapes have increased, rendering them beyond the viewer’s comprehension.

 In preparing the works for print, the blurred photographs were repeatedly and excessively processed through an AI-based high-resolution enhancement tool, allowing the neural network model to infer and reconstruct fine details, textures, and contours that did not exist in the original data.
By prompting the model to supplement the images through pattern inference learned from existing photographic datasets, a distinctive texture emerged—one in which meaning and interpretation were compressed into a dense, singular surface.

In recent years, the theory of predictive coding in neuroscience has redefined human perception not as a passive input process but as a generative model. Visual information does not end with simply “seeing with the eyes.” Various regions of the brain cooperate—comparing incoming data with past memories, aligning it with expectations and context—so that the brain reconstructs meaning. In other words, when we “see” something, we are not perceiving the external world as it is; we are constantly predicting the world and revising our internal model through the errors that arise. From this perspective, generative AI can be regarded as the most accurate device we currently possess for simulating the human visual system—an apparatus that generates the external world itself. The images created by AI are not mere imitations of data, but rather reflections of the very human perceptual process—the generative cycle of prediction, error, and correction itself.

At the dawn of the photographic age, the art of photography was coined the “The Pencil of Nature,” (consequently this is also the title of the world’s first commercial book to contain printed images) because it recorded everything it observed on a light-sensitive plate just as nature itself would have perceived it. AI’s image-recognition and generation system inherits photography’s technological lineage yet it cannot simply come to be called “The Pencil of Digital Nature.” As a cognitive entity that can understand and interpret what it sees, it has become the eyes of the computing group that enslaves the earth, depicting a camouflage of falsity and reality and enveloping us more acutely in its sphere.

The title and concept of this work were also inspired by the story of Orion’s death in Greek mythology. Artemis, the Greek goddess of the hunt, killed her beloved in a great misunderstanding. Jealous of Artemis’ love for the giant Orion, her brother Apollo one day

points to the back of Orion’s head while he swims in the sea, telling her to “Shoot that rock and show me how good your bow is.” Thus deceived, Artemis shoots an arrow at the back of Orion’s head.

The world is made up of many more copy/paste versions of tales than we assume. Misinterpretations can turn this world both cruel and rich; assumptions hurt people, and copy errors drive the evolution of art and biology. Originals and representations of people and tools accumulate, and misconceptions continue to link the constellations, even at this very moment.

© 2025 Taro Karibe All rights reserved.

bottom of page