<div dir="ltr">“You can’t see the forest for the trees.”<br><br>My interpretation of the article, without really focussing on the details of holograms really spoke to me.<br><br>The author makes three points that I find helpful:<br><br>LLMs don’t just reflect things—they rebuild meaning from patterns, more like a hologram than a mirror.<br><br>Just because they sound smooth and fluent doesn’t mean they truly understand.<br><br>They copy the shape of knowledge, not its substance.<br><br>I don’t take these ideas too literally, but the metaphors help. LLMs seem to do more than just repeat facts. Sometimes, their answers feel like they see the bigger picture—even if they’re not truly thinking.<br><br>That’s where I find the hologram metaphor useful. Unlike a mirror, which just shows what’s in front of it, a hologram builds an image from many angles. LLMs don’t just give us back what we said—they sometimes pull together patterns we didn’t notice ourselves.<br><br>But then of course, Google DeepMind claims that their AI does create new knowledge (<a href="https://www.wired.com/story/google-deepminds-ai-agent-dreams-up-algorithms-beyond-human-expertise/">https://www.wired.com/story/google-deepminds-ai-agent-dreams-up-algorithms-beyond-human-expertise/</a>), but, I don't get too excited about that - their claim of "new knowledge" is very limited and based on a framework already set by humans.</div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Tue, 20 May 2025 at 20:39, steve smith <<a href="mailto:sasmyth@swcp.com">sasmyth@swcp.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
On 5/20/25 10:19 AM, glen wrote:<br>
> I was confused by your post. But that resolved after reading the article. <br>
<br>
> If we think of Markov blankets and the holographic principle, then the <br>
> analogy to a hologram makes a bit more sense.<br>
<br>
This was outside my consideration when I read it, but I definitely <br>
appreciate the gesture toward Markov blankets.   I've had an intuition <br>
that in some sense the markov Blanket of an "entity" IS the entity for <br>
the purposes of other entities interacting with it... a bit like the <br>
software contract/interface design business?<br>
<br>
I'm still pretty perplexed by the cosmological/physics "holographic <br>
principle"...   just not enough depth or focus applied on my end quite <br>
yet?  Or as you might frame it "i'm not smart enough".<br>
<br>
.- .-.. .-.. / ..-. --- --- - . .-. ... / .- .-. . / .-- .-. --- -. --. / ... --- -- . / .- .-. . / ..- ... . ..-. ..- .-..<br>
FRIAM Applied Complexity Group listserv<br>
Fridays 9a-12p Friday St. Johns Cafe   /   Thursdays 9a-12p Zoom <a href="https://bit.ly/virtualfriam" rel="noreferrer" target="_blank">https://bit.ly/virtualfriam</a><br>
to (un)subscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
FRIAM-COMIC <a href="http://friam-comic.blogspot.com/" rel="noreferrer" target="_blank">http://friam-comic.blogspot.com/</a><br>
archives:  5/2017 thru present <a href="https://redfish.com/pipermail/friam_redfish.com/" rel="noreferrer" target="_blank">https://redfish.com/pipermail/friam_redfish.com/</a><br>
  1/2003 thru 6/2021  <a href="http://friam.383.s1.nabble.com/" rel="noreferrer" target="_blank">http://friam.383.s1.nabble.com/</a><br>
</blockquote></div>