<div dir="ltr">Sabine is wondering about reported failures of the new generations of LLM's to scale the way the their developers expected.<div><br></div><div>  <a href="https://backreaction.blogspot.com/2024/11/ai-scaling-hits-wall-rumours-say-how.html">https://backreaction.blogspot.com/2024/11/ai-scaling-hits-wall-rumours-say-how.html</a></div><div><br></div><div>On one slide she essentially draws the typical picture of an emergent level of organization arising from an underlying reality and asserts, as every physicist knows, that you cannot deduce the underlying reality from the emergent level.  Ergo, if you try to deduce physical reality from language, pictures, and videos you will inevitably hit a wall, because it can not be done.</div><div><br></div><div>So she's actually grinding two axes at once: one is AI enthusiasts who expect LLM's to discover physics, and the other is AI enthusiasts who foresee no end to the improvement of LLM's as they throw more data and compute effort at them.</div><div><br></div><div>But, of course, the usual failure of deduction runs in the opposite direction, you can't predict the emergent level from the rules of the underlying level.  Do LLM's believe in particle collliders?  Or do they think we hallucinated them?</div><div><br></div><div>-- rec --</div></div>