<div dir="ltr"><div>I like that Sim<span class="gmail_default" style="font-family:garamond,serif;color:rgb(51,51,51)"></span>s approaches the problem of AI from the perspective that<br></div>life is a consequence of the world, that life is the world discovering itself.<br><span class="gmail_default" style="font-family:garamond,serif;font-size:small;color:rgb(51,51,51)">H</span>e specifies a learning semantics (genetic algorithms) and a learning<br>syntax (motivation functions and virtual embodiment in time) for his creations.<br>His specifications are functor-like in that they determine a structure on the<br>world that when probed gives information about the world, more or less finely.<br>Through process come functions like crawling, reaching, or defending.<br>Some how these functions follow from motivation, learning and the world.<br>Is it reasonable to interpret them as dependent functions of the underlying<br>motivation functions, the motivations acting as a generalized grobner basis?<br><br><div>To Glen's point, or perhaps the point of the Bengio<span class="gmail_default" style="font-family:garamond,serif;font-size:small;color:rgb(51,51,51)"></span> paper, if we watch long<br>enough and the virtual world has sufficient analog to our own, we can begin<br>to experience a transparency of understanding. Still perhaps, the understanding<br><div class="gmail_default" style="font-family:garamond,serif;font-size:small;color:rgb(51,51,51)"><span style="font-family:Arial,Helvetica,sans-serif;color:rgb(34,34,34)">is not of the agent but of the world.</span></div></div></div>