<div dir="ltr">Both the video of Anima Anandkumar’s Stanford seminar and her scientific paper on Neural Operators really got me excited—the ideas feel fresh and powerful.<br><br>The paper is quite technical and digs into the math behind Neural Operators, without talking much about robotics. In her talk, though, she clearly links the work to robots, and it sounds as if robotics is a big focus for her team.<br><br>What jumped out at me is how different her style is from Elon Musk’s approach with Tesla’s Optimus robot. Anandkumar begins with deep theory, building firm mathematical foundations first. Musk takes a “just build it” path—make it, test it, break it, fix it, and keep going.<br><br>This contrast reminds me of engineering school and the Faraday‑Maxwell story. Faraday was the hands‑on experimenter who uncovered the basics of electricity and magnetism through careful tests. Maxwell came later and wrote the elegant equations that explained what Faraday had already shown.<br><br>So I wonder: will the roles flip this time? Will deep theory from researchers like Anandkumar guide the breakthroughs first, with practice following? Or will practical builders like Musk sprint ahead and let theory catch up afterward?<br><br>Either way, watching these two paths unfold side by side is thrilling. It feels like we’re standing on the edge of something big.</div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Wed, 16 Jul 2025 at 04:11, Jon Zingale <<a href="mailto:jonzingale@gmail.com">jonzingale@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;color:rgb(51,51,51)">Even if just for the freedom of scale, learning infinite dimensional function spaces, etc...</div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;color:rgb(51,51,51)"><br></div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;color:rgb(51,51,51)"><a href="https://www.youtube.com/watch?v=caZyFlSSKtI" target="_blank">https://www.youtube.com/watch?v=caZyFlSSKtI</a></div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;color:rgb(51,51,51)"><a href="https://arxiv.org/pdf/2506.10973" target="_blank">https://arxiv.org/pdf/2506.10973</a></div><div class="gmail_default" style="font-family:verdana,sans-serif;font-size:small;color:rgb(51,51,51)"><br><br></div></div>
.- .-.. .-.. / ..-. --- --- - . .-. ... / .- .-. . / .-- .-. --- -. --. / ... --- -- . / .- .-. . / ..- ... . ..-. ..- .-..<br>
FRIAM Applied Complexity Group listserv<br>
Fridays 9a-12p Friday St. Johns Cafe   /   Thursdays 9a-12p Zoom <a href="https://bit.ly/virtualfriam" rel="noreferrer" target="_blank">https://bit.ly/virtualfriam</a><br>
to (un)subscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
FRIAM-COMIC <a href="http://friam-comic.blogspot.com/" rel="noreferrer" target="_blank">http://friam-comic.blogspot.com/</a><br>
archives:  5/2017 thru present <a href="https://redfish.com/pipermail/friam_redfish.com/" rel="noreferrer" target="_blank">https://redfish.com/pipermail/friam_redfish.com/</a><br>
  1/2003 thru 6/2021  <a href="http://friam.383.s1.nabble.com/" rel="noreferrer" target="_blank">http://friam.383.s1.nabble.com/</a><br>
</blockquote></div>