<div dir="ltr"><div dir="ltr"><div dir="ltr"><div>On Mon, Jan 27, 2025 at 1:08 PM Santafe <<a href="mailto:desmith@santafe.edu" target="_blank">desmith@santafe.edu</a>> wrote:</div></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
But to suppose they _already_ contain everything there is to be understood is not a position I would take w.r.t. anything else we have anywhere in science.  They contain or represent whatever they do.  I don’t know how much that is, and what more it leaves to be found.  I would be amazed if it were “everything”, since nothing else in science ever has been before.<br></blockquote><div><br>I'm trying to follow the thread.  Was there a previous post you are addressing with "But to suppose they _already_ contain everything there is to be understood"</div><div><br></div><div>Safety guardrails currently prevent linking consumer AI like chatGPT, Claude and Perplexity to physical embodiment with sensor/actuators to grow intelligence from experimental designs and execution. So yes, here there is a kind of snapshot of "knowledge" albeit one that is occasionally updated and supplemented with retrieval-augmented generation (RAT). <br><br>The guardrails are less present in more professional/custom use of AI. eg autonomous vehicles where there is more ecological perception/action cycle for development of embodied intelligence and scientific experimentation. And for our own work, we want AI learning for realtime observation fusion of camera sensor (perception) networks with robotic PTZ actuators (action). This also includes citizens holding their mobile phones and serving as meat-puppet actuators for lat/long/height and yaw pitch roll as we build decentralized "situational intelligence" durign incident as well as pre and post intel intelligence to coordinate action.</div><div><br></div></div></div>
</div>