[A.I.] 経験の時代 - 字幕データの混乱から活用へ、時系列生態マップ化への道

人間のデータだけで十分か? デビッド・シルバー氏 オートダビング版 Google DeepMind チャンネル登録者数 59.2万人クリエイティブAI講座:経験の時代 シンギュラリティサロン チャンネル登録者数 9220人({04/25/2025: [A.I.]o3-2025-04-16}←)が取り上げている。対照的な字幕が付いている。方や、DeepMindのポッドキャストの方は英文で表示されて、翻訳された日本語が音声で流されている。こちらはおかしなところは感じられないので、ある程度チェックがなされているかもしれないが、もう一つの字幕はめちゃくちゃだ。大体、日本語の場合、日本語字幕再生をすることを製作者が意図することは少ないと思われるが、自動文字起こしされている場合は、文脈を考慮していないので、まず使い物にならないというか、同音異義語の選択が狂っていて、意味を無視するようなものだ。これを、AIが学習すると日本語文章としても無意味なデータを増やすことになる。まあ、少なくとも、人間が生成したものとAIが生成したものを区別できるようにすべきだろう。混在させるなら、どのようにモデルが変化するのかを追跡する必要があるだろう。

字幕データを編集していると、自分の話していることさえ、聴きとれない場合がある。記憶を参照しながら、何度も聴き直して修正している。TurboScribeも完璧ではない。一応、TurboScribeで書き起こしていると表示しているが、そのままではないことを、書き残しておく。YouTubeの自動文字起こしとの違いは、YouTubeは音声に依存した文字起こしで、意味や文脈を考慮していないが、TurboScribeは文脈依存で、音声を無視する傾向がある。YouTubeに取り込まれている「あー」「ま」「まあ」などの感嘆詞的なものは、ほとんど無視される。

図書館帰りの道草日記は「経験の時代」そのものでもある。人は経験から学ぶ。自然からも学べば、書物からも学ぶ。これをYouTubeに載せるためにはある程度のテクノロジー、デバイスとその使用方法、YouTubeの仕組みなども学ぶ必要がある。動画像と音声・字幕、説明・チャプター・文字起こしの関係などについても学ぶ必要がある。

YouTubeの字幕データによるチャプターの精緻化の意図するところは、ピックアップ動画を活用して時系列生態マップによる事象ハイパーリンクを生み出すこと。

最近、YouTubeアプリに加わったチャンネル登録者(登録チャンネル公開ユーザー)を開くと「Zazel」さんの文字列を見つけた。懐かしい。FGALEL/TSで知り合って30年以上経過した。

更新: 2025-05-06T10:53:44+09:00

[A.I.] 将棋AIから人間の将棋が見える

【#WCSC35 祝勝会】祝・世界一!水匠優勝おめでとう!!!【将棋AI水匠/たややん】 たややんCh.@将棋AI水匠 チャンネル登録者数 9740人

単なるパターンと評価関数のようなものとは違う。定跡データベースのようなものを組み合わせることも重要らしい。説明の中に人間の名人戦の話も出たりで興味深い。

[A.I.] The Creativity Code - Luc Steels

道草117 一人読書会で話題にしたので。Luc Steels - WikipediaLuc Steels - Google Scholar

ロボットの言葉遣い

スティールズは、わたしをラボに誘った。そこでは、鏡の前に置かれた二〇体のロボットがそれぞれに、自分の体を使って作れる形を調べていた。新たな形を思いつくたびに、それを記述する新しい言葉を作る。たとえば、左腕を水平方向に伸ばす動作をして、その動作に名前をつけるといった具合だ。そうやって各ロボットが、さまざまな動きを表す独自の言葉を作っていく。

ほんとうに刺激的な事が起きたのは、これらのロボットが互いにやりとりを始めたときだった。 一体のロボットが自分の語彙集から単語を一つ選んで、別のロボットに、その単語に対応する動作をするよう頼む。むろん相手は、何を求められているのか見当もつかない。そこで、当てずっぽうで自分の動きを一つ選ぶ。もしそれが正しければ、最初のロボットがOKを出す。正しくなければ、 二台目に向かって自分がしてほしかった動作をしてみせる。

二台目のロボットは、その動作にすでに独自の名前をつけていたかもしれない。その場合は、自分が決めた名前はそのままにしておいて、一台目が示した新しい単語を取り込んで、自分の辞書を更新する。 ロボットは、このようなやりとりを進めながら、コミュニケーションの成功率に応じて辞書の単語に重みをつけていく。具体的には、やりとりがうまくいかなかった単語を格下げするのだ。すると驚いたことに、一週間もすると、二台に共通の言語が現れ始める。絶えず更新して学ぶことによって、ロボットたちが独自の言葉を展開したのだ。 その共通語はかなり洗練されており、より抽象的な「左」と「右」の概念を表す単語が含まれている。姿勢と単語の直接的な対応に加えて、この二つの単語が生成されたのである。このような新たな収斂点が生まれたことだけでも十分刺激的だが、わたしにとって印象的だったのは、その週の終りには、ロボットによる新たな言語が、本人たちには理解できても、研究者にはすぐに理解できないものになっていたことだった。人間が言葉を理解するには、ロボットと十分やりとりして、新しい単語の意味を解読するしかないのである。

スティールズの実験は、エイダ・ラブレイスが間違っていたことの見事な証明になっている。 スティールズは、ロボットたちが自分自身の言葉を作れるようなコードを書いた。ところがそのコードから、何か新しいものが生まれた。ロボット以外誰一人としてその共通言語を理解できなかったという事実が、そのなによりの証拠だ。人間がこの言語を学ぶには、それぞれの音にどの姿勢が対応するのかを、ロボットに実演させるしかなかった。

(マーカス・デュ・ソートイ著、冨永星訳「レンブラントの身震い」、2020年、新潮社、326-327ページ)

実は、話している内容(Talking Headsを説明しているつもり、Language games for autonomous robotsなどに情報がある)と上記のような「ロボットの言葉遣い」の内容は別の話、だが似ている。早とちりと言えばそうなのだが、まあ、類似性を見て、頭の裏側でわかったうえで早さを優先しているわけだ。原論文探索中。

上記引用箇所の次に出てくるグーグルブレインの実験は、ハラリ先生の「NEXUS 情報の人類史」の下巻「AI革命」にも引用されている。

{02/24/2025: [読書]Grok 3 betaと3D読書マップを作る}←で感じたのは、Grok 3 betaのコードの書き方は論理に基づくものではないということだ。(確率的に予想される)自然さが解になる。論理的な演繹的推論ではない。演繹的な推論だけだと創造的なものは生まれない。目標を達成するための前提条件から始めて、行き詰ったら終わりになる。前提条件を組み替えて、論理的な試行錯誤ができないと創造性は生まれない。目標を設定する機能自体が知能ともいえる。目標を達成するための前提条件をパラメータの組み合わせとして表現する必要がある。さて、論理的にそんなことが簡単にできるだろうか。

結局、LLMがなぜうまく動くかという話につながっていくわけだが、おそらく同じような性質が現れているのだろう。それは情報の持つ性質であり、物質と結びついて言語として発現する。LLMはコンピュータという物質と結びついている。言語としては人間という生命体が生み出したものにも拘らず、今やコンピュータという機械の上で大規模言語モデルとして走っている。コンピュータとは何なんだろう。人間の外部記憶拡張装置に過ぎないのかどうか。コンピュータに身体を与えると独自の言語を生み出すが、人間の言語ではないらしい。身体の構造と環境との相互作用によって、すなわち、そこにもたらされる世界によって、新しい言語が生み出される。ハラリ先生がいうコンピュータの進化とは何なのだろうか。現在のコンピュータ(CPU+GPU+メモリ+画像・音声入出力)のままで、人間が作りだした語彙以上のものが出現するだろうか・・・そこがポイントだ。

コンピュータが進化するということは、世界が進化するということだ。その新しい状態を既存の語彙だけでは表現できないとすると、新しい言葉と新しい意味のペアが必要になる。

更新: 2025-05-13T13:37:44+09:00

[A.I.] 本心

「人間の輪郭を文学とテクノロジーから読み解く」平野啓一郎(小説家) × 松尾豊(日本ディープラーニング協会 理事長)対談 note チャンネル登録者数 4.55万人を見ると、何を思われたか、今まで見たことがない松尾先生が現れる。平野啓一郎著「本心」をしっかり読まれていたとしても、何を話すかということは難しい問題だったかもしれない。

「本心」を読んでみるという切っ掛けにはなった。図書館で借りようと思ったら、貸し出し中になっていた。もう本は買わないと言いながら、何かのセールで、年末からKindleで買う習慣が付いてしまって、あっという間に手元で読める。近未来のVRの応用(代理で行きたい場所に行って、依頼者に見せるサービス)やバーチャル・フィギュア(新語?、亡くなった人をバーチャル空間に再現して対話できるようにするサービス)が登場する。これ以上書くとネタバレになるが、松尾先生関連はこれで十分。おそらく問題はLLMと強化学習で個人を再現できるかという話に集約できるだろう。

松尾先生が無意識まで考慮しないと、人間を再現することはできないだろうと言われたのには驚いた。が、本質を突いている。言語表現として表出された言語のネットワークだけでは人間足り得ない。

例によって、ChatGPT(無料枠、4o)と上記の問題を対話してみた。「無意識を考慮したLLMは存在するだろうか?」、「LLMから強化学習で個人の人格のようなものを再現する場合、無意識を考慮することは難しいと思うのですが?」と。答えのほんの一部に過ぎないが、次のような表が示された。

「人格」の再現 vs. 「無意識」の再現
要素再現可能性(現状)説明
言語的スタイル文体・語彙・リズムを模倣できる
意識的信念中~高明示された価値観・意見は再現可能
一貫性RLHFで調整可能だが破綻しやすい
無意識の動機外部観察から推定することが非常に困難
内的葛藤多層的な自己モデルが存在しない

この表の「内的葛藤」の説明にある「多層的な自己モデル」を見て、「平野啓一郎に「本心」という近未来SF小説があり、バーチャル・フィギュアという亡くなられた方をVRで再現するサービスが登場する。これに対して、松尾豊先生が無意識を考慮しないと、人格の再現は難しいというようなことを発言された。また、平野啓一郎は「分人」という考えを提案している。「内的葛藤」を表現するための「多層的な自己モデル」に対応するかもしれない。」という話をした。この話の応答が、ほぼ、話の最後になって、エラー(「A network error occurred. Please check your connection and try again. If this issue persists please contact us through our help center at help.openai.com.」)が現れた。テキストとしての対話サイズは10KB程度。まあ、こちらにも、これ以上のネタはないので充分だった。興味深い様々な見解が得られた。分人を理解している様子だ(「分人主義」公式サイト|複数の自分を生きるのように情報は十分ある)。AIへの応用可能性も論じられた。

ちなみに、RLHFとは、人間のフィードバックによる強化学習 - Wikipedia(Reinforcement Learning from Human Feedback)。RLHF(人間のフィードバックによる強化学習)とは?:AI・機械学習の用語辞典 - @ITも参考になる。この記事は、話題爆発中のAI「ChatGPT」の仕組みにせまる! #機械学習 - Qiitaを詳しいものとして勧めている。また、参照すべき一次情報についても丁寧に示している。例えば、Models - OpenAI APIを見ると、「Flagship chat models」の中に「GPT-4o」も置かれており、チャットログをテキストとしてペーストした中の回答文に「4o」という文字列が付加存在することを合わせると、GPT-4oの生成したチャットだということが推定される。

更新: 2025-05-16T11:03:46+09:00

[A.I.] LLM哲学と道草の効用

{05/17/2025: [哲学]パーソナル哲学}←の話は、「自分の行動原理はAIと共に探れる」が主眼なのだが、相対的には逆の話だと思う。僕らは、むしろ、LLMの反応傾向(行動原理)を調べているわけだ。それは、各種のLLMに同じプロンプトを入力して反応を調べていく。もちろん、自らが知りたいことを聴くスタイルだが、応答に応じた質問をすることは難しい。質問-応答が繰り返されるということは、応答に興味深いことが含まれているからだ。ほとんどの場合、質問を中断してしまう。LLMの期待というか、促しに応じることは少ない。知らないこと、思わぬ出会いを求めて問いかけているのだ。世界の知識を集約しているのだろう。月並みな答えでは足りない。それを越えてくれ。

最初に質問するLLMはChatGPTだ。追加して質問したくなるような応答がある。やはり、最も柔軟で、興味深い応答をする。文学的でもある。ここで、意味のある質問-応答の大量のリストが出来上がる。

今回、Geminiは2.5 Proには利用制限が付いていたので、途中から、2.5 Flashに切り替えた。それでも、「LLMから強化学習で個人の人格のようなものを再現する場合、無意識を考慮することは難しいと思うのですが?」のプロンプトに対して「心の理論」(心の理論 - Wikipedia)が必要という観点やデジタル分身(Generative Agents)、二重過程理論 - Wikipediaなど「現状の研究と可能性」を導き出した。

最近の話題を見ているとコーディングの凄さの話が多いが、コーディングは自然言語ではない。語彙数が少ないだろう。既に存在するようなアプリのコーディングができたとしても、創造的とは言えない。結局、既にあるものを多少変形して出してきているだけだろう。まあ、多少の経験からそう思うだけだから、割り引いて考えたほうが良いとは思うが。個人的には、今のところ、大体、作りたいものはフィルターで、簡単なものなら、自分自身で3分もあれば書けるし、書き直しも必要はない。分岐が多く、複雑な場合でも、長くて1時間もあれば、書いてデバッグできるだろう。それどころか、サクラエディタの正規表現による置換を使えば、TurboScribeの字幕テキストのコピペから、YouTubeの説明に張り付けるチャプターデータを瞬時に作れる。

むしろ、問題は、アプリから得られた字幕データを音声を聞きながらデバッグ(修正・想像・創造)する必要があることだ。最近は、YouTubeの自動生成された字幕データがある場合は、TurboScribeを使わずに、YouTubeの字幕エディタで修正して使うことにした。音声を聴くだけでなく動画を見ながらデバッグできるからだ。音声だけだと、どうしても聴きとれないものが、画像を見ると聴きとりやすくなる。自らの記憶が刺激されて、何があったか思い起こされる。音声だけで、現実を捉えることは、LLMにとっても簡単ではない。しゃべった当人も聞き取れないような音声を聴きとることを強いられる。原理的に無理だよね。道草の効用はそういう認識をもたらすことにある。

更新: 2025-05-25T11:19:53+09:00

[A.I.] io = AI Open ?

Sam and Jony introduce io | OpenAI(70) Sam & Jony introduce io - YouTube(OpenAI チャンネル登録者数 153万人)。

最近は予想ネタがなくなったが、これは予想せずにはいられない。おそらく、ARグラスだろう。ハードウェアで、現時点、最も必要とされているものだろう。

更新: 2025-05-25T11:31:13+09:00

[アート] War ROBERT CAPA(戦争 ロバート・キャパ)、東京都写真美術館、2025-04-22

「東京都写真美術館で、「戦争 ロバート・キャパ(War Robert Capa)」の展覧会を見た。解説書の序をドイツ哲学者の三島憲一が「シュルレアリスムから誕生した戦争写真家」というタイトルで書いている。なぜ、キャパの戦争写真はシュルレアリスムと言えるのだろうか?」という質問を例によってChatbotたちに投げかけてみた。聴くに足る答えを返したのは、DeepSeek(DeepThink(R1))とChatGPTだった。GeminiとGrok3は冴えない、機転がない、つまらん。前回の問い掛けへの応答結果の傾向と同じだ({04/25/2025: [A.I.]o3-2025-04-16}←)。まあ、それはともかく・・・問いによって印象が変わるからね・・・

三島憲一先生の言葉に惹き付けられたのは、「キャパの写真はリアリズムの極致であって、シュルレアリスムと考えたことはまったくなかった」からだ。三島憲一先生やChatbotたちが説明するシュルレアリスムだという説明を読めば、なるほどと思えないことはないのだが、キャパ自身がそういう方法論を意図していたとはとても思えない。結果的にそうなったというだけのことだと思う。

しかし、キャパの生きた時代はシュルレアリスムの生まれた時代であり、写真家のキャパとシュルレアリストたちとの交流の中で写真表現が生まれた時代でもあり、戦争による悲惨が写真表現・報道された時代でもあったのだ。そういうことを認識させられた展覧会だった。

解説書の序が気になって、東京都写真美術館の図書室に上がって、3ページ、メモを取った。残しておこう。

東京でRobert Capa展を見る
2025 4 22(火)
WAR
ROBERT CAPA
戦争ロバート・キャパ(1913-1954)
2025年
Crevis (クレヴィス)
監修: 多田亜生 (Tsuguo Tada)
三島憲一(ドイツ哲学者/大阪大学名誉教授)
序 シュルレアリスムから誕生した戦争写真家
ユルゲン・ハーバーマス「第一次大戦から第二次大戦にかけてのこの時代は、社会主義への希望が燃え盛っていた。同時に体制転覆への警戒感も。」
1936年7月に始まったスペイン内戦
アンドレ・マルロー「希望」
アーネスト・ヘミングウェイ「誰がために鐘は鳴る」、ゲーリー・クーパー、イングリッド・バーグマンで映画化「地球が動く」(the earth moves)
ジョージ・オーウェル「カタロニア賛歌」
ピカソの「ゲルニカ」
被写体を見る視線のあり方
視線によって世界が変わるということを発見したのがシュルレアリスム。
アングルやシャッター時間が現実にはない現実を可能にする
キャパの恋仲 ゲルダ・タロー(←岡本太郎)
1937年7月、共和国軍の暴走戦車に轢かれて亡くなる。
・パブロ・ネルーダ
・ポール・ニザン
・ルイ・アラゴン
・エゴン・エルクィレキシュ
・アンナ・セーガース
・アンリ・カルティエ=ブレッソン
が葬列に加わる。
ゲルダの墓碑設計は、アルベルト・ジャコメッティ
シュルレアリスムの精神から戦争写真家は誕生した
⇒マルグリット・デュラス<広島モナムール>(<二十四時間の情事>)、岡田英治、エマニュエル・リヴァ
ひとつの評価
ジョン・スタインベック
あたかもペンと同じように、カメラも使うひとによって
すべてがきめられるのだ。それは、じかに人間の理性と感情につながっているものである。
戦争 ロバート・キャパ(2025) クレヴィス
表紙帯
キャパの作品はそれ自体偉大な心の絵であり、それ故、圧倒的な共感を、いつもよびおこすものである。
ジョン・スタインベック
「ひとつの評価」より
その時、キャパの手は震えていた。
「シュルレアリスムから・・・」三島憲一
アルトゥール・ケストラ「スペインの遺書」
・キャパ、ハンガリー系ユダヤ人
・タロー、南ドイツ出身のユダヤ人
フランツ・ボルケナウ、フランクフルト学派に連なる社会学者、従軍記「スペインの戦場」

スペイン内戦 - Wikipedia。この時代にサルトルは文学者・哲学者として出発している。ジャン=ポール・サルトル - Wikipedia。誰もが時代の奔流に巻き込まれていく。

更新: 2025-05-03T14:29:36+09:00

[デバイス] 散歩世界25+道草123 = Zeppアプリでスマートウオッチ「Amazfit Bip 6」をGPSロガーとして使う

iPhone XR上で、Final Cut Cameraで収録しながら、同時にZeppアプリでAmazfit Bip 6がGPSロガーとして機能するかどうかを確認するテスト。動画の字幕時間(チャプター)の時刻と地理的位置の取得を検討する。YouTube動画チャプターの時空間データベースを作る。

[言語] 永瀬拓矢九段の漆黒の世界

永瀬拓矢32歳、70分超の電話取材で本音を思わず口に…「藤井(聡太)さんを人間として見てはいけないんです」「これが最後かもしれませんよ」(2/3) - 将棋 - Number Web - ナンバー(text by 大川慎太郎、 posted 2024/09/26 06:05)。

「・・・大事なのは、漆黒の世界で生きていく覚悟をすることでしょうね。私は覚悟ができている時はいい将棋を指せていると思っています。言い方が正しいかはわからないですけど、『今日死んでもいい』という気持ちで将棋を指せているかどうか。今日で人生が終わるならば、全部を出し切るでしょう。でも今日の私はそういう気持ちで将棋を指せていなかったんです」

「その漆黒の世界というのは、言葉を捨てるイメージなんです。私はこれまで言葉を獲得することに自分の資源を使ってきました。これってまさに人間的なことなんです。少し前に受けた『将棋世界』のインタビューは、自分の人間らしさがよく出ていたのかなと思います。嘘偽りはなくて自分の本心で話したことですけど、今後はその部分は捨て切らないといけないと今日、痛感しました。・・・」

(前記「Number Web」記事より)

言葉のない世界、漆黒の世界、どのような世界なのだろう。考えさせられた。

「少し前に受けた『将棋世界』のインタビュー」を調べ始めた。私の戦い方 vol.9 永瀬拓矢九段「日々前進」 | マイナビニュース( 掲載日: 2024/10/15 10:45、【インタビュー日時】2024年8月21日【記】大川慎太郎)を突き止めたが、全文を読むために、結局「【電子版限定アザーカット集付き】将棋世界 2024年11月号[雑誌] 」を購入した。自閉スペクトラム症(ASD)を公表された話がニュースになっていたが、大元の記事が特定できた。記憶力、思考力、AIの使い方、人間とは何かを考えさせる。しかし、その中で、前進とは何なのか、前進するものにしかわからないと言われそうだが^^;)一番凄いと思ったのは、考え続けて(言葉を獲得することによってASDを克服して?)、環境に適応することによって、後天的に頭がよくなったという話。

更新: 2025-05-25T10:58:50+09:00

[文学] 平野啓一郎の解析的世界

最近、平野啓一郎関係のYouTube動画を見た。#92【密着】平野啓一郎を徹底解剖!学生時代の読書事情から分人誕生秘話まで、芥川賞作家の脳内を暴く!【本ツイ!】 出版区 チャンネル登録者数 16.2万人「文学は何の役に立つのか?」平野啓一郎 ──『決壊』から『本心』まで【講演音声】 平野啓一郎 / Keiichiro Hirano チャンネル登録者数 7360人サンデル教授に聞く「能力主義」の問題点。自己責任論の国・日本への処方箋は? 【マイケル・サンデル×平野啓一郎特別対談】 ハフポスト日本版公式チャンネル チャンネル登録者数 1.13万人『空白を満たしなさい』原作者・平野啓一郎さんに聞く、小説の書き方【土曜ドラマ / NHK】 note チャンネル登録者数 4.55万人。非常に論理的で解析的な思考がある。ここのところの若い人の思考方法との類似性を感じてしまった。平野啓一郎 - Wikipediaによれば、1975年生まれ、49歳。いろいろとよく考えている。思考方法に与える時代の速度感の違いみたいなことを、遅きに失しているとも思うが、考え始めた。(日本)文学への興味は三島の金閣寺から始まったというのは一緒なのだが。

長い間積読していた「葬送」を読み始めた。

更新: 2025-05-14T23:52:52+09:00

[哲学] パーソナル哲学

【AIと対話し続けた研究者】ハーバード大×NTTリサーチで新たな学問「知性の物理学」を作る田中秀宣/自分の行動原理はAIと共に探れる/パーソナル哲学を探究する時代に【CROSS DIG 1on1】 TBS CROSS DIG with Bloomberg チャンネル登録者数 17.7万人。知性の物理学のところはわかりにくいので、忍耐を持って観る必要があるが、パーソナル哲学は人間の本質に関わっているのでわかりやすい。

他人は、ニューラルネットワークに経験が刻み込まれた言語モデルで、APIプロンプト(会話などのコミュニケーション)を通じて理解することしかできないと見做せるという話は新鮮だった。今風に言えばパートナーや家族など一緒に生活したり、経験をある程度共有できる場合は、赤の他人ではないと思うが、それでもすべては理解できないだろう。しかし、その言語モデルがどのような経験で生み出されたのかを知ることは、無意識を推定することにつながるのかもしれない。この話は、GPT-4oとの対話{CoT: 05/15/2025: [A.I.]本心}の中に出てきた。言語モデルから抽出できる部分もあるだろう、経験が言語モデルに反映されている以上。

ライプニッツ的に見れば、自らのモナドしか見ることはできないので、ある意味、それも当然。相手とのコミュニケーションや観察などから、発言、行動、創造物などを理解するしかない。

平野啓一郎の分人主義も、どのような無意識を持っているのかに支配されるだろう。

Hidenori Tanaka - Google Scholarを調べてみるとおもしろいかもしれない。言外に言われたようにも思うが、確かに、人間のニューラルネットワークは身体につながっている以上、単なる言語モデルではない。無意識や五感、第六感も含まれている。意識的な表層の部分が言語モデルを示すのかも。LLM、大規模言語モデルとは何かを問い直す切っ掛けになりそうだ。

更新: 2025-05-18T22:38:02+09:00

[哲学] LLMと無意識を議論する

{05/17/2025: [哲学]パーソナル哲学}{05/15/2025: [A.I.]本心}{05/14/2025: [文学]平野啓一郎の解析的世界}←の続き。ライプニッツは無意識を「小さな知覚(petites perceptions)」の存在によるものとして捉えていたらしい。

私のChatGPTへの入力(プロンプト)の続き。

ChatGPTのまとめの表、出力のほんの一部。

現代のAI(特にLLM)とライプニッツのモナド
概念モナド(ライプニッツ)LLM(現代AI)
閉鎖性外界との因果なし、予定調和世界を直接知覚せず、データから生成
全体性宇宙を独自の視点で反映訓練データ全体を言語で表現
知覚と表現知覚=表現=存在入力=重み変換=出力(言語)
内面構造襞(fold)、重層的な内面多層ネットワーク、アテンション構造

ここで、ChatGPTの提案で、下記についてを依頼。

さらに

具体的な事例をもとに考えようという提案に対して。

ル・クレジオの「物質的恍惚」(豊崎光一訳)に含まれる 「無限に中ぐらいのもの」の「意識」の冒頭です。

ある種の無意識(こころなさ)はぼくにとってまるで意地悪さのようなものだ。軽い気持で言われた何かの言葉、自制のない何かの仕ぐさ、何かの態度、眼のちょっとしたきらめき、声の抑揚、何かの反射的動作 ...............そうしたもので、目の前の世界は腐敗し、取り返しがつかなくなってしまうのだ。他者、あんなにも間近で、あんなにも真心があると思っていた他者が、突然自分の殻の中に閉じこもってしまう。 その人は拒否する。否認する。その自我といういやらしい扉を閉ざす、するとその人に面したときもはや夜しか、空虚で、絶望的で、敵意を含んだ夜しか残らない。男たちにも女たちにも、ときとしてこうした無意識(こころなさ)という、非友好的態度の至高の力がある。彼らは唐突に、なぜであるかは理解できないが、隣人であることをやめる。敵としての古い顔をとりもどすのだ。彼らは嘘をつく。欺く。コントロールできぬもの、住まいえぬものの領域へと逃れてゆく。そしていちばん憎むべきは、たぶんこのことだ-----習慣や風俗や文明の相対的な居心地のよさが覆える、あの瞬間だ。そしてしかめ面(つら)をした仮面のように現われ出てくるのが、知らない顔、知ることなんかできそうもない顔なのだ。眼は海青色をした復仇的な球となり、口は食い意地で張り、手はひっかけてやろうとし、言葉は人を馬鹿にし、征服しようとする。下劣なるものの支配が始まる。

(ル・クレジオ著、豊崎光一訳「物質的恍惚」、新潮社、1970年)

それに対する応答のほんの一部。

自然言語的な特徴=petites perceptions の痕跡
表現技法説明例文中の位置
列挙のリズム微細な現象を次々に挙げることで感覚の粒度を高める「軽い気持で…、自制のない…、眼のちょっとした…」
接続詞の省略/繰り返し一文一文が独立して響き、緊張感が高まる「彼らは嘘をつく。欺く。逃れる。」
主観の暴走/被害感の表現微細な差異が世界の崩壊にまで膨張する「世界は腐敗し、取り返しがつかなくなる」
無意識の他者性相手が“意識していない”行為が破壊的な結果をもたらす「無意識(こころなさ)…至高の力」

まとめとして、ChatGPTは次のように述べている。

さて、まずは、ここまで、記録しておこう。ここで、最初からの累積テキストで62KBのサイズになった。同じチャットに保存されている。メモリは更新されているらしい。出力は残っているが、古い入力が消えている。

更新: 2025-05-21T14:16:10+09:00

[SF] 仮想空間計画と道草

J.P.ホーガンと言えば、懐かしいハードSFを代表する作家だ。早く(2010年に69歳で)亡くなったが、最近、また読み始めた。もともと1980年代に読んで感動した憶えがある。これも、ある意味、30年後のリバイバルという感じだ。ジェイムズ・P・ホーガン - Wikipediaによれば、「仮想空間計画(Realtime Interrupt)」は1995年の作品。

実は、これに近いSFを書きかけていた。そして、それは道草空間を仮想空間化できないかという妄想につながっていく。時系列生態マップもその一環にある。

今日の道草で、第三ベンチの一人読書会の途中、鵜が着水したのに気づいたので、終了した後、第五船着き場まで覗きにいくと、なんと、鵜が羽を広げて乾かしているのに遭遇したのだ。それを録画しているつもりで次第に近づいて行ったのだが、なんと、録画ボタンを押し忘れていた;_;)20分は録画しているつもりだったはずだ。やれやれ、気づいた後、現地まで戻って、その場所を鵜のいない状態で録画して帰ったが、鵜を出現させることができないだろうか?

[将棋] 第83期名人戦第二局 - なんどもおいしい将棋の楽しみ方

もう終わっちゃたけど。名人戦第2局 大盤解説担当・佐藤天彦九段インタビュー「振り飛車で藤井名人に勝つには」 オートダビング版 将棋・囲碁ch 毎日新聞 チャンネル登録者数 3.31万人はおもしろい。特に永瀬九段についての解説がなるほどと思わせた。

究極のバランスがどこで崩れるのか。がくんとうなだれる藤井名人の姿も出た超人対決。AIの評価値の表示の仕方もさらなる工夫が求められる時代になったのではと、このお二人の対局を見ていると、究極の場面前後で、もっと驚きたいと思わせる。もっと予想をと・・・超人の頭の中を垣間見たい・・・

(2073) 藤井聡太名人「千日手にはしたくなかった」 終局後インタビュー【第83期将棋名人戦七番勝負第2局】=北野新太撮影 - YouTube。感想戦はどこにあるんだろう。ABEMAでは感想戦が流れない。

更新: 2025-05-01T23:10:40+09:00

[将棋] AIが解説する将棋

{05/01/2025: [将棋]第83期名人戦第二局 - なんどもおいしい将棋の楽しみ方}←を書いたら、将棋中継に革新?ついにAIが言葉で解説「後手は急戦矢倉っぽい形で…」 水匠チームが実演【第35回世界コンピュータ将棋選手権】=杉村和将撮影 囲碁将棋TV -朝日新聞社- チャンネル登録者数 11.9万人(2025-05-04)が目についた。将棋は人間は長く考える。その間、視聴者は一緒に考えてみているわけではない。熱心な人なら、ShogiGUIで追い掛けながら観戦することはできるだろうが、追い掛けようとすれば手間が掛かるだけでなく、相当の集中力を求められる。実際には、ながら族で、他のことをしながら見ている。

ABEMAでは解説がずっとあるので、雑談を含めて面白いが、新聞社のYouTube配信は解説どころか、評価値さえ示されないこともある。コストパフォーマンスの問題だろうけど、なかなか難しい話だ。

AIで解説コストが下がれば便利かもしれない。それでも、おそらく、見せ方がむずかしい。棋譜の変化を符号で示されてもわかりにくい。理解するためには、後で時間を掛けて棋譜並べをするのが正解なのだろうが、プロならともかく。昔から新聞の観戦記の棋譜をまじめに並べてみたことはないどころか、棋譜を辿ってみたこともない。今のコンピュータ時代、リアルタイムなら可能性があるかも。限られた画面をどう使うか・・・デュアルディスプレイぐらいにしないと無理なのでは。

更新: 2025-05-08T08:46:53+09:00

[将棋] 第83期名人戦第三局、精神分裂的観戦法 = ABEMA将棋 + (囲碁将棋TV-朝日新聞社 + 将棋・囲碁ch 毎日新聞)/YouTube

テレビはABEMAをApple TVで点けている。PCではChromeを別ウインドウ/別ディスプレイでYouTubeを点けている。音声もテレビとPCオーディオから二重で流れている。人間は同時に見分け聞き分ける。

朝日新聞社(【将棋名人戦中継】藤井聡太名人ー永瀬拓矢九段 究極の対決をライブで【第83期将棋名人戦第3局1日目】 囲碁将棋TV -朝日新聞社- チャンネル登録者数 12万人)だけでなく、毎日新聞社(【第83期名人戦 第3局1日目】対局LIVE・AI評価値放送 藤井聡太名人vs永瀬拓矢九段(5月9日) 将棋・囲碁ch 毎日新聞 チャンネル登録者数 3.33万人)もある。将棋を楽しむには、新聞社の取材力も無視できないだろうね。こちらは、画面構成は違うが、同じライブ映像と棋神アナリティクスによる解析エンジンdlshogiを使っている。取材映像で差別化しているので、ライブ映像より、むしろ休憩時間などに注目する必要がありそうだ。

更新: 2025-05-09T13:24:05+09:00

[将棋] 将棋AIから人間の将棋が見える 2

(3896) 【#WCSC35 1日目】第35回世界コンピュータ将棋選手権・水匠視点配信【将棋AI水匠/たややん/熊田ゴウ/AIcia_Solid】(5986s) たややんCh.@将棋AI水匠 チャンネル登録者数 9740人 - YouTube。「龍と苺」{CoT: 道草114 一人読書会1 - 龍と苺16、将棋はなぜおもしろいか!?}の話が出てくる。どうも、注目の大一番は千日手成立で指し直し! 竜王戦5組決勝・高田明浩五段(22)-山下数毅三段(16)(松本博文) - エキスパート - Yahoo!ニュース(5/12(月) 11:19)の話につながっている。既に、山下数毅 - Wikipediaに詳しい。Wikipediaの説明の意味がわかりにくいが、「ただし、同時期に進行中の第77回三段リーグで降段点の対象となる場合(18局中4勝以下のリーグ成績)は竜王戦「次点」の対象とはならない。」ので、第77回奨励会三段リーグ戦によれば、現在、2勝2敗なので、まだ決定ではないということらしい。

竜王戦5組決勝、山下数毅三段が勝ちましたね。なるほど、強い16歳か。後輩からきつい恩返し「この将棋を負けるのは…」藤本六段の嘆き、奨励会員・山下三段は今期も進撃[第38期竜王戦]5組2回戦 藤本渚六段×山下数毅三段 : 読売新聞(2025/04/25 05:00)の記事も見つけた。

空前絶後の大快挙 山下三段が5組優勝で本戦進出つかむ 第38期竜王戦5組ランキング戦 | マイナビニュース(2025/05/13 11:30)の写真にある「16歳11か月での決勝トーナメント進出は藤井聡太竜王・名人の14歳10か月に次ぐ2番目の若さだ」が一つの確認ポイント。藤井聡太 - Wikipediaによれば、「2016年に史上最年少(14歳2か月)で四段昇段(プロ入り)を果たす」とある。

竜王戦:山下三段が棋士以外で初のクラス優勝&本戦入り…藤井聡太竜王への挑戦権を目指すトーナメントへ「1局1局丁寧に」<5組決勝・高田明浩五段-山下数毅三段> : 読売新聞(2025/05/12 21:47)にあるように「棋士以外で初のクラス優勝&本戦入り」が「龍と苺」に関係するところ。

更新: 2025-05-13T12:52:43+09:00

[YouTube] 64bit NEWS - 庭の話

『庭の話』を「国家」から問い直す(連続対談『庭の話』の話)先崎彰容 × 宇野常寛 PLANETS YouTubeチャンネル チャンネル登録者数 2.94万人で宇野常寛を見直した。先崎彰容も。

次いで、もはや「公共」のメディアは0から作り直すしかない!堀潤 × 宇野常寛 PLANETS YouTubeチャンネル チャンネル登録者数 2.94万人も見てしまっている。民間の公共放送になろうと。地方メディアが語り直す・・・やはり有料版かよ・・・そんなんばっかり^^;有料版あり過ぎで無理でしょ・・・マイクロペイメントという概念は昔からあるけど。マイクロペイメント - Wikipedia

更新: 2025-05-02T11:25:28+09:00

[YouTube] 動画とExifTool

iPhone XRのFinal Cut Cameraで動画を撮っていると、動画開始時刻と終了時刻がファイルのパラメータとして書き込まれていてもいいんじゃないかと漠然と思っていた。よく考えると、システム的にそれは難しそうだとも感じたが、どこまでファイルに書き込まれているのかを確認した。Geminiに相談して、結局、ExifToolで確かめることにした。これはPerlなんだよね。こんな出力が得られる。exiftoolのコマンドラインはGemini(2.5 Flash)に教えてもらった。

PS D:\mitikusa\123> exiftool -G -a -s -u -e IMG_0003.MP4
[ExifTool]      ExifToolVersion                 : 13.30
[File]          FileName                        : IMG_0003.MP4
[File]          Directory                       : .
[File]          FileSize                        : 570 MB
[File]          ZoneIdentifier                  : Exists
[File]          FileModifyDate                  : 2025:05:28 19:50:18+09:00
[File]          FileAccessDate                  : 2025:05:28 23:34:09+09:00
[File]          FileCreateDate                  : 2025:05:28 19:49:39+09:00
[File]          FilePermissions                 : -rw-rw-rw-
[File]          FileType                        : MP4
[File]          FileTypeExtension               : mp4
[File]          MIMEType                        : video/mp4
[QuickTime]     MajorBrand                      : MP4 v2 [ISO 14496-14]
[QuickTime]     MinorVersion                    : 0.0.1
[QuickTime]     CompatibleBrands                : isom, mp41, mp42
[QuickTime]     MovieHeaderVersion              : 0
[QuickTime]     CreateDate                      : 2025:05:28 10:41:48
[QuickTime]     ModifyDate                      : 2025:05:28 10:43:40
[QuickTime]     TimeScale                       : 3000
[QuickTime]     Duration                        : 0:21:49
[QuickTime]     PreferredRate                   : 1
[QuickTime]     PreferredVolume                 : 100.00%
[QuickTime]     MatrixStructure                 : 1 0 0 0 1 0 0 0 1
[QuickTime]     PreviewTime                     : 0 s
[QuickTime]     PreviewDuration                 : 0 s
[QuickTime]     PosterTime                      : 0 s
[QuickTime]     SelectionTime                   : 0 s
[QuickTime]     SelectionDuration               : 0 s
[QuickTime]     CurrentTime                     : 0 s
[QuickTime]     NextTrackID                     : 3
[QuickTime]     TrackHeaderVersion              : 0
[QuickTime]     TrackCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     TrackModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     TrackID                         : 1
[QuickTime]     TrackDuration                   : 0:21:49
[QuickTime]     TrackLayer                      : 0
[QuickTime]     TrackVolume                     : 100.00%
[QuickTime]     MatrixStructure                 : 1 0 0 0 1 0 0 0 1
[QuickTime]     Unknown_edts                    : (Binary data 28 bytes, use -b option to extract)
[QuickTime]     MediaHeaderVersion              : 0
[QuickTime]     MediaCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     MediaModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     MediaTimeScale                  : 48000
[QuickTime]     MediaDuration                   : 0:21:49
[QuickTime]     MediaLanguageCode               : und
[QuickTime]     HandlerType                     : Audio Track
[QuickTime]     HandlerDescription              : Core Media Audio
[QuickTime]     Balance                         : 0
[QuickTime]     AudioFormat                     : mp4a
[QuickTime]     AudioChannels                   : 2
[QuickTime]     AudioBitsPerSample              : 16
[QuickTime]     AudioSampleRate                 : 48000
[QuickTime]     Unknown_esds                    : (Binary data 43 bytes, use -b option to extract)
[QuickTime]     SampleGroupDescription          : (Binary data 18 bytes, use -b option to extract)
[QuickTime]     SampleToGroup                   : (Binary data 20 bytes, use -b option to extract)
[QuickTime]     TimeToSampleTable               : (Binary data 16 bytes, use -b option to extract)
[QuickTime]     SampleToChunk                   : (Binary data 21668 bytes, use -b option to extract)
[QuickTime]     SampleSizes                     : (Binary data 245388 bytes, use -b option to extract)
[QuickTime]     ChunkOffset                     : (Binary data 10476 bytes, use -b option to extract)
[QuickTime]     TrackHeaderVersion              : 0
[QuickTime]     TrackCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     TrackModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     TrackID                         : 2
[QuickTime]     TrackDuration                   : 0:21:49
[QuickTime]     TrackLayer                      : 0
[QuickTime]     TrackVolume                     : 0.00%
[QuickTime]     MatrixStructure                 : 1 0 0 0 1 0 0 0 1
[QuickTime]     ImageWidth                      : 1280
[QuickTime]     ImageHeight                     : 720
[QuickTime]     Unknown_edts                    : (Binary data 28 bytes, use -b option to extract)
[QuickTime]     MediaHeaderVersion              : 0
[QuickTime]     MediaCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     MediaModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     MediaTimeScale                  : 3000
[QuickTime]     MediaDuration                   : 0:21:49
[QuickTime]     MediaLanguageCode               : und
[QuickTime]     HandlerType                     : Video Track
[QuickTime]     HandlerDescription              : Core Media Video
[QuickTime]     GraphicsMode                    : srcCopy
[QuickTime]     OpColor                         : 0 0 0
[QuickTime]     CompressorID                    : avc1
[QuickTime]     SourceImageWidth                : 1280
[QuickTime]     SourceImageHeight               : 720
[QuickTime]     XResolution                     : 72
[QuickTime]     YResolution                     : 72
[QuickTime]     BitDepth                        : 24
[QuickTime]     AVCConfiguration                : (Binary data 34 bytes, use -b option to extract)
[QuickTime]     ColorProfiles                   : nclx
[QuickTime]     ColorPrimaries                  : BT.709
[QuickTime]     TransferCharacteristics         : BT.709
[QuickTime]     MatrixCoefficients              : BT.709
[QuickTime]     VideoFullRangeFlag              : Limited
[QuickTime]     VideoFrameRate                  : 29.973
[QuickTime]     CompositionTimeToSample         : (Binary data 312496 bytes, use -b option to extract)
[QuickTime]     SyncSampleTable                 : (Binary data 1772 bytes, use -b option to extract)
[QuickTime]     IdependentAndDisposableSamples  : (Binary data 39228 bytes, use -b option to extract)
[QuickTime]     SampleToChunk                   : (Binary data 860 bytes, use -b option to extract)
[QuickTime]     SampleSizes                     : (Binary data 156908 bytes, use -b option to extract)
[QuickTime]     ChunkOffset                     : (Binary data 10472 bytes, use -b option to extract)
[QuickTime]     LocationInformation             : (none) Role=shooting Lat=34.37939 Lon=132.46786 Alt=5.00 Body=earth Notes=
[QuickTime]     MediaDataSize                   : 569397490
[QuickTime]     MediaDataOffset                 : 856021

最後の部分を引用すると。

出力された日時情報の解釈

  • [File] グループのタイムスタンプ (例: FileCreateDate, FileModifyDate):
    • これらはファイルシステムレベルのタイムスタンプです。+09:00というオフセットが付いていることからもわかるように、これらはあなたのPC(またはファイルをコピーしたデバイス)のローカルタイムゾーン(日本標準時)で記録された、ファイルが作られたり更新されたりした日時を示しています。
    • これらの時刻は、ファイルがカメラからPCにコピーされたり、別のストレージに移動されたりした際に更新されるため、実際の撮影時刻とはほとんど関係ありません。特に「ZoneIdentifier: Exists」は、このファイルがWebからダウンロードされたか、あるいは特定のゾーン識別子が付与されたことを示唆することがあります。
  • [QuickTime] グループのタイムスタンプ (例: CreateDate, MediaCreateDate, TrackCreateDate):
    • これらの時刻は、QuickTimeコンテナ内のメタデータとして記録されているものです。ご指摘の通り、これらの時刻にはタイムゾーンオフセット(+09:00のような表示)がありません。

    • QuickTimeベースの動画ファイル(MP4やMOV)では、このオフセットがない場合、これらの時刻は**UTC(協定世界時)**で記録されていると解釈するのが一般的です。

-------------------------------------

実際の撮影時刻とのズレについて

ご提示いただいたデータから、いくつか具体的な確認ができます。

  1. QuickTimeの時刻はUTCの可能性が高い:
    • [QuickTime] CreateDate が 2025:05:28 10:41:48 となっています。
    • もしこれがUTCだと仮定すると、日本標準時(JST, UTC+9)に変換するには9時間を加算します。
    • 10:41:48 + 9時間 = 19:41:48
    • この計算結果 (19:41:48) は、[File] FileCreateDate の 19:49:39 や FileModifyDate の 19:50:18 に非常に近い時刻です。
  2. この「QuickTime」時刻は撮影開始時刻ではない:
    • ご自身の感覚として「この時刻は動画を録画した時刻ではない」とのことなので、この10:41:48(UTC)または19:41:48(JST換算)は、実際の撮影開始時刻とは異なる何か別のイベントの時刻である可能性が高いです。
    • 考えられるのは、前回も触れたようにファイルが完全にエンコードされてカメラ(またはアプリ)がそのファイルへの最終書き込みを開始した時刻、あるいはファイルのメタデータが最終確定された時刻などです。
    • 特に、QuickTimeグループのすべてのCreateDate系タグが10:41:48であり、ModifyDate系タグが10:43:40となっていることから、これは動画が完全に作成され、その後少し修正(最終的なメタデータ書き込みなど)が行われた、その動画ファイルの最終的な生成・確定時刻である可能性が非常に高いです。動画の長さが0:21:49(約22分)であることを考えると、撮影開始時刻はこれよりも22分以上前であるはずです。

-------------------------------------

結論と今後の同期方法

結論として、Final Cut Cameraは動画ファイル内のQuickTimeメタデータに、**実際の撮影開始時刻ではなく、おそらく動画ファイルの生成が最終的に完了した時刻(UTCで)**を記録しているようです。そして、このファイルがPCにコピーされた際に、ファイルシステム上のタイムスタンプがPCのローカルタイムゾーンで記録された、という流れでしょう。

この状況であれば、ExifToolで確認できるこれらの「作成日時」のメタデータは、GPSロガーとの正確な時刻同期には残念ながら直接利用できないということになります。

しかし、ご心配いりません。既にお考えの方法が最も確実です。

  • 動画内で時刻を読み上げている音声
  • GPSロガーの正確な時刻情報
  • Final Cut Proなどの動画編集ソフトのタイムライン

これらを使って、手動でタイムライン上のイベント(音声で時刻が読み上げられる瞬間)とGPSロガーのタイムスタンプを照合し、同期ポイントを設定するのが、最も高精度で確実な方法となります。1分程度の精度であれば、十分達成可能でしょう。

ExifToolの出力は、ファイルの詳細な状態を把握する上では今後も非常に役立ちますので、引き続き活用されていくのは良いことです。今回は「期待する時刻」が得られなかったという結果でしたが、ファイルの状態を正確に把握できたという点では大きな進歩です!

例によって、聴いたこと・質問(プロンプト入力)を残しておこう。

[File]          FileModifyDate                  : 2025:05:28 19:50:18+09:00
[File]          FileAccessDate                  : 2025:05:28 23:34:09+09:00
[File]          FileCreateDate                  : 2025:05:28 19:49:39+09:00
[QuickTime]     CreateDate                      : 2025:05:28 10:41:48
[QuickTime]     ModifyDate                      : 2025:05:28 10:43:40
[QuickTime]     Duration                        : 0:21:49
[QuickTime]     PreviewDuration                 : 0 s
[QuickTime]     SelectionDuration               : 0 s
[QuickTime]     TrackCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     TrackModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     TrackDuration                   : 0:21:49
[QuickTime]     MediaCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     MediaModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     MediaDuration                   : 0:21:49
[QuickTime]     TrackCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     TrackModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     TrackDuration                   : 0:21:49
[QuickTime]     MediaCreateDate                 : 2025:05:28 10:41:48
[QuickTime]     MediaModifyDate                 : 2025:05:28 10:43:40
[QuickTime]     MediaDuration                   : 0:21:49

この出力は、Geminiが後で示した「exiftool -G -a -s -u -e /パス/TO/あなたの動画ファイル.mov | grep -E 'Date|Duration'」と同じはず。尤も、WindowsのGrepはサクラエディタ上のものだが。

Google I/O 2025で、ググるからAIへの移行が強調されているようだが、インターフェースがどのようになるのかなあ。確かにExifToolの使い方などはサイトを見ても、情報は詳細で豊富だが、複雑でわかりにくい。Geminiの助けがなければ、もう面倒だと投げていたかもしれない。どうしても必要なら、ググりはじめるわけだが。プログラミングなら解説サイトやブログなどから情報を得られることが多いだろう。この部分が楽になるわけだが、さて、ブログはともかく、解説サイトを開設する動機付けが存続するだろうか。そもそも、高級プログラミング言語が存続するかどうか・・・

しかし、問題は、Geminiの持つ知識は、インターネットから得た知識だ。インターネットが存続しなければ、新しい知識を吸収できなくなるだろう。ユーザーとのやり取りだけでは、新しい知識を吸収することは無理なのでは。自分自身で考えることができるようになれば問題ないか!?

更新: 2025-05-30T10:43:08+09:00