<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"></head><body dir="auto"><div dir="auto">I was just wondering if our prefrontal cortex areas in the brain contain a large language model too - but each of them trained on slightly different datasets. Similar enough to understand each other, but different enough so that everyone has a unique experience and point of view o_O</div><div dir="auto"><br></div><div dir="auto">-J.</div><div dir="auto"><br></div><div><br></div><div align="left" dir="auto" style="font-size:100%;color:#000000"><div>-------- Original message --------</div><div>From: Marcus Daniels <marcus@snoutfarm.com> </div><div>Date: 2/6/23  9:39 PM  (GMT+01:00) </div><div>To: The Friday Morning Applied Complexity Coffee Group <friam@redfish.com> </div><div>Subject: Re: [FRIAM] Datasets as Experience </div><div><br></div></div>
<div class="WordSection1">
<p class="MsoNormal">It depends if it is given boundaries between the datasets.   Is it learning one distribution or two?</p>
<p class="MsoNormal"> </p>
<div>
<div style="border:none;border-top:solid #E1E1E1 1.0pt;padding:3.0pt 0in 0in 0in">
<p class="MsoNormal"><b>From:</b> Friam <friam-bounces@redfish.com> <b>On Behalf Of
</b>Jochen Fromm<br>
<b>Sent:</b> Sunday, February 5, 2023 4:38 AM<br>
<b>To:</b> The Friday Morning Applied Complexity Coffee Group <friam@redfish.com><br>
<b>Subject:</b> [FRIAM] Datasets as Experience</p>
</div>
</div>
<p class="MsoNormal"> </p>
<div>
<p class="MsoNormal">Would a CV of a large language model contain all the datasets it has seen? As adaptive agents of our selfish genes we are all trained on slightly different datasets. A Spanish speaker is a person trained on a Spanish dataset. An Italian
 speaker is a trained on an Italian dataset, etc. Speakers of different languages are trained on different datasets, therefore the same sentence is easy for a native speaker but impossible to understand for those who do not know the language. </p>
</div>
<div>
<p class="MsoNormal"> </p>
</div>
<div>
<p class="MsoNormal">Do all large language models need to be trained on the same datasets? Or could many large language models be combined to a society of mind as Marvin Minsky describes it in his book "The society of mind"? Now that they are able to understand
 language it seems to be possible that one large language model replies to the questions from another. And we would even be able to understand the conversations.</p>
</div>
<div>
<p class="MsoNormal"> </p>
</div>
<div>
<p class="MsoNormal">-J.</p>
</div>
<div>
<p class="MsoNormal"> </p>
</div>
</div>


</body></html>