<div dir="auto">If you're moving up from the phoneme to the word to the phrase level and some result in the last disambiguates between two phonemes, what difference does it make that you've violated some strict hierarchy?<div dir="auto"><br></div><div dir="auto">The case can be made that Raj Reddy won the Turing award based partly on his leadership of the Hearsay project.  I think they were trying to get speech understanding to work more than they were trying to understand how humans do it.</div><div dir="auto"><br></div><div dir="auto">Frank <br><br><div data-smartmail="gmail_signature" dir="auto">-----------------------------------<br>Frank Wimberly<br><br><br><br>Phone (505) 670-9918</div></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, May 4, 2019, 6:26 PM glen∈ℂ <<a href="mailto:gepropella@gmail.com">gepropella@gmail.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Right. But that's the point, I think. To what extent are semantics invariant across these supposed "levels"? My argument is that "levels" are figments of our imagination. The best we can say is that iteration constructs something that we find convenient to name: "level". But what reality is actually doing is mere aggregation and the meanings of the primitives are no different from the meanings of the aggregates.<br>
<br>
These private algorithms are a fiction, allowed (in some abstracted idealism) by our general purpose computers. Constructive logic/math disallows, to some extent, that complete abstraction. Every constructive method will, at some point, puncture the "levels".  More to the point, *every* model that includes (a priori or not) "levels" is false and will eventually be falsified.<br>
<br>
You're asking something like "who cares?" or "does it matter?". Maybe not. But if we're trying to talk about consciousness and what a Turing machine knows or the difference between specific and general intelligence, it *is* reasonable, maybe even necessary.<br>
<br>
On 5/4/19 10:50 AM, Marcus Daniels wrote:<br>
> Considering how we go back-and-forth in long threads here, trying to sort out semantics, I don't see why it is reasonable to expect a generative learning approach to employ internal neurons that have easily interpretable meanings.  Same with ADF:  "Here's a program written in a private language, how does it work?"  Like an Egyptologist trying to figure out hieroglyphics and understand the ancient culture.<br>
<br>
============================================================<br>
FRIAM Applied Complexity Group listserv<br>
Meets Fridays 9a-11:30 at cafe at St. John's College<br>
to unsubscribe <a href="http://redfish.com/mailman/listinfo/friam_redfish.com" rel="noreferrer noreferrer" target="_blank">http://redfish.com/mailman/listinfo/friam_redfish.com</a><br>
archives back to 2003: <a href="http://friam.471366.n2.nabble.com/" rel="noreferrer noreferrer" target="_blank">http://friam.471366.n2.nabble.com/</a><br>
FRIAM-COMIC <a href="http://friam-comic.blogspot.com/" rel="noreferrer noreferrer" target="_blank">http://friam-comic.blogspot.com/</a> by Dr. Strangelove<br>
</blockquote></div>