<div dir="auto">I think you mean by a "fork" what we call a "common cause".  When two variables are correlated it may be that they have a common cause.<br><br><div data-smartmail="gmail_signature">---<br>Frank C. Wimberly<br>140 Calle Ojo Feliz, <br>Santa Fe, NM 87505<br><br>505 670-9918<br>Santa Fe, NM</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Dec 20, 2021, 8:17 AM uǝlƃ ☤>$ <<a href="mailto:gepropella@gmail.com">gepropella@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
I don't understand your criticism. What do you think is "cocked up"? [⛧]<br>
<br>
I'll take a swipe at what might be the problem: The concluding paragraph seems to make the point that forks *are* (reversed) collisions and collisions are (reversed) forks. The key may lie in some preemptive registration of words like "prediction". If you stick to words like "relation" and "correlation" and toss out all the mechanistic/causal language, it might be clearer how forks are collisions and vice versa. The only difference is the *direction* of inference.<br>
<br>
But to be clear, despite my guess above, I'm asking a question. What do you think is wrong, here?<br>
<br>
[⛧] For my own convenience, here's the link to the article I *think* we're talking about: <br>
methodological behaviorism, causal chains, and causal forks<br>
<a href="https://behavior.org/wp-content/uploads/2018/02/BPv45_SOBER.pdf" rel="noreferrer noreferrer" target="_blank">https://behavior.org/wp-content/uploads/2018/02/BPv45_SOBER.pdf</a><br>
<br>
On 12/19/21 10:08 PM, <a href="mailto:thompnickson2@gmail.com" target="_blank" rel="noreferrer">thompnickson2@gmail.com</a> wrote:<br>
> */Yes!  Right!  Thankyou! /*<br>
> <br>
> That is now obvious to you because you know that stuff.  But for three weeks it has been driving me crazy. <br>
> <br>
>  <br>
> <br>
> Now for the second point.<br>
> <br>
>  <br>
> <br>
> E1 and E2, each causally contribute to a behavior, B.  In this case, postulating<br>
> <br>
>  an inner state, I, that is caused by both E1 and E2, and which causes I, affects <br>
> <br>
> one's predictions concerning the relationship between environment and behavior. <br>
> <br>
>  <br>
> <br>
> This is from the abstract of the article.  Not only do we see the same slip-up with respect to I (I IS after all, the inner state), but we see also that the abstract entertains an article about causal convergence (“collision”), not causal forks.  Yet every where else, in the title, or in the body, the article seems to be talking about forks.  Even with my weak knowledge of formal logic and probability, I can see that that would make a huge difference.  Can you confirm also that that is a cockup, so I don’t spend another month trying to make it make sense?<br>
<br>
-- <br>
"Better to be slapped with the truth than kissed with a lie."<br>
☤>$ uǝlƃ<br>
<br>
<br>
.-- .- -. - / .- -.-. - .. --- -. ..--.. / -.-. --- -. .--- ..- --. .- - .<br>
FRIAM Applied Complexity Group listserv<br>
Zoom Fridays 9:30a-12p Mtn UTC-6  <a href="http://bit.ly/virtualfriam" rel="noreferrer noreferrer" target="_blank">bit.ly/virtualfriam</a><br>
un/subscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
FRIAM-COMIC <a href="http://friam-comic.blogspot.com/" rel="noreferrer noreferrer" target="_blank">http://friam-comic.blogspot.com/</a><br>
archives:<br>
 5/2017 thru present <a href="https://redfish.com/pipermail/friam_redfish.com/" rel="noreferrer noreferrer" target="_blank">https://redfish.com/pipermail/friam_redfish.com/</a><br>
 1/2003 thru 6/2021  <a href="http://friam.383.s1.nabble.com/" rel="noreferrer noreferrer" target="_blank">http://friam.383.s1.nabble.com/</a><br>
</blockquote></div>