"""<br>
I like what Leslie Valiant has to say in PAC, as a way of framing the
issues, even though I know he is a punching bag for the geneticists
because of various things they understand as important that he isn’t
trying to understand deeply or deal with.  I don’t care that he had
limitations; the question for me is whether there is a good insight
that could be developed further.<p>

What I intend to suggest above is that the lifecycle/hypergraph
abstraction is a more expressive class of formal models within which one
can pose such problems, and we should be able to generate more
interesting answers by using it.<br>
"""<p>

There are many references above to investigate, and so far I have only
begun to engage with some. I am preparing to read <a href="https://www.biorxiv.org/content/10.1101/2021.02.09.430402v1.abstract" target="_top" rel="nofollow" link="external">your
preprint</a>, and I have managed to track down a copy of Valiant's PAC.
Two notable ideas Valiant raises are:<p>

<blockquote style='border-left:2px solid #CCCCCC;padding:0 1em'>
0. Membership to a complexity class as <i>real</i>: A machine is identified with the nature of its computation and not necessarily the fine details of its instantiation. For instance, fine details in
the case of biology could be <i>every</i> aspect of its being in the world.
I am reminded of the philosophical problems associated with <i>identity
tracing</i>, as well as a certain empiricist perspective that <i>days like
today</i> are in some sense <i>more real</i> than <i>today</i>. Valiant
mentions that the <i>universality</i> of Turing's machine <i>is</i> the stable
feature that ultimately matters, that a machine ought to be considered
"the same" under perturbation of its parts so long as what it does
<i>computationally</i> remains invariant.<p>

The slipperiness of notions like "remaining computationally invariant"
and "perturbation of its parts" seem to be hotly debatable locales.
In the spirit of Ackley's robust algorithms,
perturbations of a quick-sort rapidly lead to nonviable algorithms, while
bubble-sort can remain identifiable under significant
perturbation. Additionally, as with genetics, there is the possibility of
identifying perturbations (mutations) as an indispensable <i>part</i>
of the organism. This kind of analysis does leave some questions open.
Should we (by the thesis) consider a BPP-classed algorithm to be the same under perturbation
when it becomes both <i>determined</i> and its <i>expected time complexity</i>
remains invariant?
<p>

1. Scaffolding in protein expression networks: Here, Valiant suggests a
  protein level analogy to Nick's white smokers. <a href="https://en.wikipedia.org/wiki/Chaperone_(protein)" target="_top" rel="nofollow" link="external">Chaperone proteins</a>, at
the very least, are known to participate structurally in the process of
error correction, namely correcting errors in folding. I am
reminded of recent dives into other aspects of protein dynamics such
as <a href="https://en.wikipedia.org/wiki/Allosteric_regulation" target="_top" rel="nofollow" link="external">allosteric signaling</a>. I can only imagine the computational liberties
present for scaffolding when considering variation in PH (as narrow as
it allows) or temperature. In these musings, I am reminded of the inhibitory
  (epiphenomenal?) role of the dictionary in the functioning of LZW data
compression.
</blockquote><p>

That Glen found your paper "positively pornographic" is high praise.
I hope to find the time to take the dive myself. In the meantime, I would love to hear more about your ideas concerning graphical models, as it is a place I have thought a bit about.


        
        
        
<br/><hr align="left" width="300" />
Sent from the <a href="http://friam.471366.n2.nabble.com/">Friam mailing list archive</a> at Nabble.com.<br/>