<html>
<head>
<meta http-equiv="Content-Type" content="text/html; charset=utf-8">
</head>
<body dir="auto">
<div style="display: block;" class="">
<div style="-webkit-user-select: all; -webkit-user-drag: element; display: inline-block;" class="apple-rich-link" draggable="true" role="link" data-url="https://www.nytimes.com/2023/12/10/technology/ai-acceleration.html?unlocked_article_code=1.E00.ha3L.Pv89XgRiV_aN&smid=url-share">
<a style="border-radius:10px;font-family:-apple-system, Helvetica, Arial, sans-serif;display:block;-webkit-user-select:none;width:300px;user-select:none;-webkit-user-modify:read-only;user-modify:read-only;overflow:hidden;text-decoration:none;" class="lp-rich-link" rel="nofollow" href="https://www.nytimes.com/2023/12/10/technology/ai-acceleration.html?unlocked_article_code=1.E00.ha3L.Pv89XgRiV_aN&smid=url-share" dir="ltr" role="button" draggable="false" width="300">
<table style="table-layout:fixed;border-collapse:collapse;width:300px;background-color:#E9E9EB;font-family:-apple-system, Helvetica, Arial, sans-serif;" class="lp-rich-link-emailBaseTable" cellpadding="0" cellspacing="0" border="0" width="300">
<tbody>
<tr>
<td vertical-align="center" align="center"><img style="width:300px;filter:brightness(0.97);height:157px;" width="300" height="157" draggable="false" class="lp-rich-link-mediaImage" alt="00ROOSE-03-facebookJumbo.jpg" src="cid:1E6F6583-D16D-43E8-93E9-F5C7F610CC50"></td>
</tr>
<tr>
<td vertical-align="center">
<table bgcolor="#E9E9EB" cellpadding="0" cellspacing="0" width="300" style="font-family:-apple-system, Helvetica, Arial, sans-serif;table-layout:fixed;background-color:rgba(233, 233, 235, 1);" class="lp-rich-link-captionBar">
<tbody>
<tr>
<td style="padding:8px 0px 8px 0px;" class="lp-rich-link-captionBar-textStackItem">
<div style="max-width:100%;margin:0px 16px 0px 16px;overflow:hidden;" class="lp-rich-link-captionBar-textStack">
<div style="word-wrap:break-word;font-weight:500;font-size:12px;overflow:hidden;text-overflow:ellipsis;text-align:left;" class="lp-rich-link-captionBar-textStack-topCaption-leading">
<a rel="nofollow" href="https://www.nytimes.com/2023/12/10/technology/ai-acceleration.html?unlocked_article_code=1.E00.ha3L.Pv89XgRiV_aN&smid=url-share" style="text-decoration: none" draggable="false"><font color="#000000" style="color: rgba(0, 0, 0, 1);">This
 A.I. Subculture’s Motto: Go, Go, Go (Gift Article)</font></a></div>
<div style="word-wrap:break-word;font-weight:400;font-size:11px;overflow:hidden;text-overflow:ellipsis;text-align:left;" class="lp-rich-link-captionBar-textStack-bottomCaption-leading">
<a rel="nofollow" href="https://www.nytimes.com/2023/12/10/technology/ai-acceleration.html?unlocked_article_code=1.E00.ha3L.Pv89XgRiV_aN&smid=url-share" style="text-decoration: none" draggable="false"><font color="#A2A2A9" style="color: rgba(60, 60, 67, 0.6);">nytimes.com</font></a></div>
</div>
</td>
</tr>
</tbody>
</table>
</td>
</tr>
</tbody>
</table>
</a></div>
</div>
<br id="lineBreakAtBeginningOfSignature">
<div dir="ltr">Sent from my iPhone</div>
<div dir="ltr"><br>
<blockquote type="cite">On Dec 7, 2023, at 10:33 AM, Steve Smith <sasmyth@swcp.com> wrote:<br>
<br>
</blockquote>
</div>
<blockquote type="cite">
<div dir="ltr">
<p>On 12/7/23 7:51 AM, glen wrote:</p>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
We need less *trust* and more *trustworthiness*. What I meant by "reality distortion field" seems different from what you meant. I meant the effect of being ensconced in privilege, having billions of dollars, swimming in an ocean of sycophants, etc. Musk's
 reality is severely distorted. <br>
</blockquote>
<blockquote>touche' and bravo.   yes, this is yet-more-relevant and yes to <i>trust V trustworthiness</i>.  I generally trust everyone to pursue their own self-interest but what I don't trust as clearly is my understanding of that self-interest and their level
 of enlightenment as they pursue it which convolved with their alignment to my idea of a "greater good" would seem to be their "trustworthiness".<br>
</blockquote>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
<br>
Of course, I think a part of the TESCREAL club's rhetoric is similar to revelatory religions like Catholicism or Scientology ...</blockquote>
<blockquote>
<p>TESCREAL, the acronym, is new to me but I appreciate the cluster/aggregation it offers.  I'm a sucker for all things hopeful/futurist/optimistic by some measure, yet also rather allergic (the allergy/addiction duality).  From the following paper:</p>
<p><a href="https://akjournals.com/view/journals/2054/aop/article-10.1556-2054.2023.00292/article-10.1556-2054.2023.00292.xml" class="moz-txt-link-freetext">https://akjournals.com/view/journals/2054/aop/article-10.1556-2054.2023.00292/article-10.1556-2054.2023.00292.xml</a><br>
</p>
<blockquote>
<p><i><span style="color: rgba(0, 0, 0, 0.87); font-family: Roboto, sans-serif; font-size: 16px; font-variant-ligatures: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; text-align: start; text-indent: 0px; text-transform: none; word-spacing: 0px; -webkit-text-stroke-width: 0px; white-space: normal; background-color: rgb(255, 255, 255); text-decoration-thickness: initial; text-decoration-style: initial; text-decoration-color: initial; display: inline !important; float: none;">The
 backbone of this worldview is the TESCREAL bundle of ideologies—an acronym coined by the critical AI scholars Émile Torres and Timnit Gebru to describe an interrelated cluster of belief systems: transhumanism, Extropianism, singularitarianism, cosmism, Rationalism,
 Effective Altruism, and longtermism.</span></i></p>
</blockquote>
</blockquote>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
or even occult societies and heavy psychedelics users, where initiates have a distorted view but the masters who've "studied" for a long time have a clearer understanding of reality. A wealthy man once told me, "Money is like air. It's everywhere. The difference
 between you and I is that I know how to build engines that harvest and concentrate it." He clearly felt like he had a better understanding of reality than me. The rhetoric inverts.
<br>
<br>
I feel the same way about inter-species mind reading. When I see humans engineer their local ecology (e.g. damming a river or introducing a biocontrol species), I don't see humans understanding biology *better* than, say, the rats whose day to day lives might
 be intensely impacted. I see the rats as having the clear view and the humans as having the "distorted" view. Musk, Thiel, and all the rest seem to think they're Hari Seldons.
</blockquote>
<blockquote>In fact, it is beyond inter-species mind-reading, it is individual-of-an-arrogant-species reading the mind of Gaia (or some significant subset). I think I take your point however.  I've been re-reading Henry Petroski's "To Engineer is Human" and
 it is flooded with examples of the hubris implied here.<br>
</blockquote>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
But we rats understand that *luck* is the primordial force and those with it (the lucky) are so badly skewed they can't see their hand in front of their face. Perhaps the continually unlucky are also badly skewed? Only those of us who can narratively map our
 wandering from luck to unluck and back are best situated to understand reality? <br>
</blockquote>
<blockquote>I've put that under my hat and am letting it try to soak in.  It may take a while.  I sense something profound in it but haven't been able to absorb/parse/internalize it yet.<br>
</blockquote>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
<br>
The same difference exists between, say, a front-end developer and a "close to the metal" embedded systems developer. The former is closer to ideal computation, computronium, as it were. The latter is closer to the actual world, where the rubber meets the road.
 Which of the two has the more distorted field? Or perhaps only full stack (writ large) developers experience the least distortion?<br>
<br>
Arcing back to conceptions of openness. Here are some indices that seem more trustworthy than whatever field being whipped up by the byzantine AI Alliance:
<br>
<br>
<a class="moz-txt-link-freetext" href="https://opening-up-chatgpt.github.io/">https://opening-up-chatgpt.github.io/</a>
<br>
</blockquote>
<blockquote>I had no idea how many list-worthy text-generators were out there (I only recognized a few) nor the number of categories to be open (or not) within!   I'm a sucker for a good taxonomy or maybe more to the point, partitioning or embedding space as
 a way to get some bearings/orientation on the larger landscape.<br>
</blockquote>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
<a class="moz-txt-link-freetext" href="https://hai.stanford.edu/news/introducing-foundation-model-transparency-index">https://hai.stanford.edu/news/introducing-foundation-model-transparency-index</a>
<br>
</blockquote>
<blockquote>
<p>I was not aware (either) of the term Foundation Model... useful and interesting (from the website):
<br>
</p>
<blockquote>
<h4 class="" style="box-sizing: border-box; margin-top: 0px; margin-bottom: 0.5rem; font-weight: 400; line-height: 1.7em; color: rgb(52, 63, 82); font-size: 1.2em; word-spacing: 0.1rem; letter-spacing: -0.01rem; font-family: Manrope, sans-serif; font-style: normal; font-variant-ligatures: normal; font-variant-caps: normal; orphans: 2; text-align: start; text-indent: 0px; text-transform: none; widows: 2; -webkit-text-stroke-width: 0px; white-space: normal; background-color: rgb(254, 254, 254); text-decoration-thickness: initial; text-decoration-style: initial; text-decoration-color: initial;">
<i><font face="Times New Roman, Times, serif">In recent years, a new successful paradigm for building AI systems has emerged: Train one model on a huge amount of data and adapt it to many applications. We call such a model a foundation model.</font></i></h4>
</blockquote>
</blockquote>
<p></p>
<br>
<blockquote type="cite" cite="mid:8e6266d5-69d0-46e2-977b-f7c91907251a@gmail.com">
<br>
<br>
On 12/6/23 10:47, Steve Smith wrote: <br>
<blockquote type="cite">As the habitual tangenteer that I am, I'm left reacting to the phrase "Musk's reality distortion field".    Tangent aside, I do very much appreciate Glen's take on this and found the multiple references (much more on-topic than my tangential
 riff here) interesting and useful.   I too hope Stallman will weigh in and wonder what the next evolution of EFF might look like or be replaced by in this new evolutionary landscape at the intersection of tech and culture?
<br>
<br>
I'm hung up, the last few years, on Yuval Harari's Intersubjective Reality <a class="moz-txt-link-rfc2396E" href="https://medium.com/amalgamate/inter-subjective-realities-64b4f6716f72">
<https://medium.com/amalgamate/inter-subjective-realities-64b4f6716f72></a> as derived from the social science Intersubjectivity
<a class="moz-txt-link-rfc2396E" href="https://en.wikipedia.org/wiki/Intersubjectivity">
<https://en.wikipedia.org/wiki/Intersubjectivity></a>. <br>
<br>
When I first heard Harari's usage/coinage I reacted to it somewhat the way I did to Kellyanne Conway's Alternative Facts
<a class="moz-txt-link-rfc2396E" href="https://en.wikipedia.org/wiki/Alternative_facts">
<https://en.wikipedia.org/wiki/Alternative_facts></a>, but I now deeply appreciate what they are all alluding to, some more disingenously than others.
<br>
<br>
I don't disagree that Musk's every action and statement has the effect of "distorting reality" but it is our /Intersubjective Reality/ that is being distorted, not the reality that most of us were trained/steeped in via the philosophical tradition of /Logical
 Positivism <a class="moz-txt-link-rfc2396E" href="https://plato.stanford.edu/entries/logical-empiricism/">
<https://plato.stanford.edu/entries/logical-empiricism/></a>/.   Others here were (Social Sciences, Humanism) probably trained up and steeped more in Phenomenology
<a class="moz-txt-link-rfc2396E" href="https://plato.stanford.edu/entries/phenomenology/">
<https://plato.stanford.edu/entries/phenomenology/></a> and more comfortable with Intersubjective Reality.
<br>
<br>
I find the likes of Musk or Trump or Altman or ( * ), as the /Personality/ in "Cult of Personality" in much the way star this recently discovered in-sync planetary system
<a class="moz-txt-link-rfc2396E" href="https://mashable.com/article/nasa-exoplanets-orbit-star-sync">
<https://mashable.com/article/nasa-exoplanets-orbit-star-sync></a> exists (see below).   With the planets' orbits finding pairwise (and more generally n-wise) resonances, all (presumably) coupled exclusively by gravity (and synced through internal dissipative
 tidal forces?). <br>
<br>
Is chatGPT or OpenAI or AIAlliance ( or, or, or, . . . ) yet another species of celestial body in an orbital dance?
<br>
<br>
Musk, of course, operates in a higher-dimensional field of forces with Tweets (X's?), public appearances, financial transactions, and launch/contract/release announcements as the "intermediate vector particles"  and the sturm and drang of individual drama trauma
 among the companies, organizations and individuals who are effected by it all as the internal dissipative forces.
<br>
<br>
Mashable article on in-sync planetary system <a class="moz-txt-link-rfc2396E" href="https://mashable.com/article/nasa-exoplanets-orbit-star-sync">
<https://mashable.com/article/nasa-exoplanets-orbit-star-sync></a> <br>
<br>
<a class="moz-txt-link-freetext" href="https://science.nasa.gov/missions/tess/discovery-alert-watch-the-synchronized-dance-of-a-6-planet-system/">https://science.nasa.gov/missions/tess/discovery-alert-watch-the-synchronized-dance-of-a-6-planet-system/</a>
<br>
<br>
On 12/6/23 10:57 AM, Pietro Terna wrote: <br>
<blockquote type="cite">    Genius! <br>
<br>
<br>
Il 06/12/23 15:11, glen ha scritto: <br>
<blockquote type="cite">For those of us who refuse to contribute to Musk's reality distortion field:
<a class="moz-txt-link-freetext" href="https://thealliance.ai/">https://thealliance.ai/</a>
<br>
<br>
Yeah, it's interesting. 2 questions came to my mind: 1) Where is Mozilla? Are they a part of it? And 2) "open" is not a simple concept. Is it possible that so many organizations have a clear understanding of what it means? If so, what do they mean? We've seen,
 over and over again, a kind of exploitation of Utopian values, especially in infrastructure-level software. (I'd love to get Stallman's opinion.)
<br>
<br>
One way to clarify someone's position on their private conception of "open" is to ask how they feel about limits to the exportation of encryption software.
<a class="moz-txt-link-rfc2396E" href="https://www.eff.org/deeplinks/2019/08/us-export-controls-and-published-encryption-source-code-explained">
<https://www.eff.org/deeplinks/2019/08/us-export-controls-and-published-encryption-source-code-explained></a><br>
<br>
Another tack is to ask how they feel about fake news, trust in institutions, free speech, platforming, etc.
<br>
<br>
IDK. The AI Alliance smells, to me, kinda like more TESCREAL [1], ripe for exploitation and *-washing [2] by the privileged. If a tech is open and stays open, it'll most likely do so because individuals commit to it, not because some meta-corp of mega-corps
 get together as "allies". But I'm a bit cynical. <br>
<br>
[1] Transhumanism, Extropianism, Singulatarianism, Cosmism, Rationalism, Effective Altruism, Longtermism
<br>
[2] Green-washing (fossil fuel lobbyists at cop28), ethics-washing ("ai safety"), dei-washing (sensitivity training), etc.
<br>
<br>
On 12/5/23 23:47, Pietro Terna wrote: <br>
<blockquote type="cite">Dear all, <br>
<br>
what about the post below? <br>
<br>
Star Wars? <br>
<br>
</blockquote>
</blockquote>
</blockquote>
</blockquote>
<br>
</blockquote>
<span>-. --- - / ...- .- .-.. .. -.. / -- --- .-. ... . / -.-. --- -.. .</span><br>
<span>FRIAM Applied Complexity Group listserv</span><br>
<span>Fridays 9a-12p Friday St. Johns Cafe   /   Thursdays 9a-12p Zoom https://bit.ly/virtualfriam</span><br>
<span>to (un)subscribe http://redfish.com/mailman/listinfo/friam_redfish.com</span><br>
<span>FRIAM-COMIC http://friam-comic.blogspot.com/</span><br>
<span>archives:  5/2017 thru present https://redfish.com/pipermail/friam_redfish.com/</span><br>
<span> 1/2003 thru 6/2021  http://friam.383.s1.nabble.com/</span><br>
</div>
</blockquote>
</body>
</html>