<div dir="ltr"><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif">-------- Nick says --------- Nate constantly says that making such predictions is, strictly speaking, not his job.  As long as what happens falls within the error of his prediction, he feels justified in having made it.   He will say things like, "actually we were right."  I would prefer him to say, "Actually we were wrong, <i>but I would make the same prediction under the same circumstances the next time.”  </i>In other words, the right procedure produced, on this occasion, a wrong result. -----------------<u></u><u></u></p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif"><br></p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif">Well... so this connects a lot with poker, which I am in the process of teaching the 10 year old... If I recall, Nate was giving Trump a 1/3 chance of victory, which was much higher than most of the other models at the time. You can hardly fault someone because something happened that they said would happen 2/3 of the time. </p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif"><br></p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif">If a poker player has a model that predicts a given play to be the best option, because it will work 2/3 of the time, and this one time it doesn't work, that isn't grounds to say the model failed. </p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:11pt"><br></span></p><p class="gmail-m_523368810771950236MsoPlainText" style="margin:0in 0in 0.0001pt"><font face="Calibri, sans-serif"><span style="font-size:11pt"> YOU want the modelers to have models that </span><span style="font-size:14.6667px">rarely</span><span style="font-size:11pt"> give anything close to even odds. So do I, so I'm sympathetic. But the modeler might prefer a more honest model, that includes more uncertainty, for a wide variety of reasons. </span></font></p><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div dir="ltr"><div dir="ltr"><br clear="all">-----------<br><div dir="ltr">Eric P. Charles, Ph.D.<br>Department of Justice - Personnel <span>Psychologist</span></div><div>American University - Adjunct Instructor</div><div></div></div><div dir="ltr"><a href="mailto:echarles@american.edu" target="_blank"></a></div></div></div></div></div></div></div><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Apr 18, 2020 at 12:17 PM uǝlƃ ☣ <<a href="mailto:gepropella@gmail.com">gepropella@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">I think it's interesting that you seemed to have *flipped* your thinking within the same post. You restate my point about conceptual metaphors by saying models/computation merely *justifies* decisions/rhetoric. Then a few paragraphs later, you suggest that's conflating language with thought.<br>
<br>
My diatribe to Nick was that he *uses* metaphors/models simply to impute his conceptual structure onto Nate. Nick's decision is already made and he wants Nate's work to justify it. And the way he *imputes* his conceptual structure into Nate's work is through the sloppy use of metaphor. Then when Nate tells Nick (indirectly) that Nick's wrong about what Nate's done, Nick rejects Nate's objection.<br>
<br>
I'm picking on Nick, of course. We all do it. I wish we all did it much less.<br>
<br>
On 4/18/20 6:14 AM, Steven A Smith wrote:<br>
> But frankly as often as not, I saw<br>
> them use our work to *justify* the decision they had already made or<br>
> were leaning heavily toward, *apparently* based on larger strategic<br>
> biases. <br>
> <br>
> [...]<br>
> <br>
> As for your gut-level (and often well articulated) mistrust of<br>
> "metaphorical thinking",  you may conflate a belief (such as mine) that<br>
> language is metaphorical at it's base with being a "metaphorical<br>
> thinker".    Metaphor gets a bad rap/rep perhaps because of the<br>
> "metaphorical license" often taken in creative arts (albeit for a<br>
> different and possibly higher purpose).  <br>
<br>
-- <br>
☣ uǝlƃ<br>
<br>
.-. .- -. -.. --- -- -..-. -.. --- - ... -..-. .- -. -.. -..-. -.. .- ... .... . ...<br>
FRIAM Applied Complexity Group listserv<br>
Zoom Fridays 9:30a-12p Mtn GMT-6  <a href="http://bit.ly/virtualfriam" rel="noreferrer" target="_blank">bit.ly/virtualfriam</a><br>
unsubscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
archives: <a href="http://friam.471366.n2.nabble.com/FRIAM-COMIC" rel="noreferrer" target="_blank">http://friam.471366.n2.nabble.com/<br>
FRIAM-COMIC</a> <a href="http://friam-comic.blogspot.com/" rel="noreferrer" target="_blank">http://friam-comic.blogspot.com/</a> <br>
</blockquote></div>