<html><head><meta http-equiv="Content-Type" content="text/html; charset=UTF-8"></head><body dir="auto"><div dir="auto">Terrence Sejnowski argues that the new AI super chatbots are like a magic Harry Potter mirror that tells the user what he wants to hear: "When people discover the mirror, it seems to provide truth and understanding. But it does not. It shows the deep-seated desires of anyone who stares into it". ChatGPT, LaMDA, LLaMA and other large language models would "take in our words and reflect them back to us".</div><div dir="auto">https://www.nytimes.com/2023/02/26/technology/ai-chatbot-information-truth.html<br></div><div dir="auto"><br></div><div dir="auto">It is true that large language models have absorbed <span style="background-color: rgb(255, 255, 255); color: rgb(26, 26, 26); font-family: NeueHaasGroteskText, Helvetica, Arial, "Nimbus Sans L", sans-serif; font-size: 16px;">unimaginably huge amount of texts, but what if our prefrontal cortex in the brain works in the same way? </span></div><div dir="auto">https://direct.mit.edu/neco/article/35/3/309/114731/Large-Language-Models-and-the-Reverse-Turing-Test</div><div dir="auto"><br></div><div dir="auto">I think it is possible that the "transformer" architecture is so successful because it is - like the cortical columns in the neocortex - a modular solution for the problem what comes next in an unpredictable world</div><div dir="auto">https://en.wikipedia.org/wiki/Cortical_column</div><div dir="auto"><br></div><div dir="auto">-J.</div><div dir="auto"><br></div></body></html>