<div dir="auto"><div>There is an interesting issue that often comes up in these contexts, in which someone asserts that the models mean something all on their own.  If it is someone who has picked up our language,  they might,  for example,  ask "What does the model intend? The Model, itself? "</div><div dir="auto"><br></div><div dir="auto"><span style="font-family:sans-serif">Glen does this by saying "</span><span style="font-family:sans-serif">there's good reason to believe you will *never* actually understand how your model works."</span></div><div dir="auto"><br></div><div dir="auto">I have seen Nick oscillate in those discussions, towards and away from thinking he needs to rewrite everything.  </div><div dir="auto"><br></div><div dir="auto">I insist that is not the direction should be going in.  The model doesn't intend anything.  A person,  who is offering a model,  intends something by it,  and does not intend other things.  Because THAT is what we'r are talking about.... There IS a chance (though no guarentee) that the person offering a model (fully) understands what they do or do not intend to match between the model and the situation that is modeled.  </div><div dir="auto"><br></div><div dir="auto">We aren't talking about anything other than people doing things. X is "a model" if/when someone thinks an aspect of X matches something happening somewhere else,  and all models contain both intended and unintended implications.  This makes a question of whether or not someone "fully understands their model" a question primarily about the understanding,  not primarily about "the model itself". </div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br></div><div dir="auto"><br><div class="gmail_quote" dir="auto"><div dir="ltr" class="gmail_attr">On Wed, Jan 15, 2020, 1:13 PM uǝlƃ ☣ <<a href="mailto:gepropella@gmail.com" target="_blank" rel="noreferrer">gepropella@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Did Epstein ever respond to your criticism?<br>
<br>
For what little it's worth, I disagree with your lesson. Obtuse models can be very useful. In fact, there's good reason to believe you will *never* actually understand how your model works, any more than you'll ever understand how that model's referent(s) work. I may even be able to use Pierce to argue that to you. 8^)<br>
<br>
On 1/15/20 9:23 AM, <a href="mailto:thompnickson2@gmail.com" rel="noreferrer noreferrer" target="_blank">thompnickson2@gmail.com</a> wrote:<br>
> The lesson is, if you<br>
> don’t understand how your model works, you aren’t doing yourself any favors by inventing it.  This led to my war with Epstein in the pages of JSSS about the relation between explanation and prediction.  <br>
<br>
-- <br>
☣ uǝlƃ<br>
<br>
============================================================<br>
FRIAM Applied Complexity Group listserv<br>
Meets Fridays 9a-11:30 at cafe at St. John's College<br>
to unsubscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer noreferrer noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
archives back to 2003: <a href="http://friam.471366.n2.nabble.com/FRIAM-COMIC" rel="noreferrer noreferrer noreferrer" target="_blank">http://friam.471366.n2.nabble.com/<br>
FRIAM-COMIC</a> <a href="http://friam-comic.blogspot.com/" rel="noreferrer noreferrer noreferrer" target="_blank">http://friam-comic.blogspot.com/</a> by Dr. Strangelove<br>
</blockquote></div></div></div>