<div dir="ltr">This just turned up on hacker news:<div><br></div><div>   <a href="https://www.biorxiv.org/content/10.1101/622803v1">https://www.biorxiv.org/content/10.1101/622803v1</a></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">[...] <span style="color:rgb(25,25,25);font-family:"Lucida Sans",Helvetica,Arial,sans-serif;font-size:14.7px">To this end we use unsupervised learning to train a deep contextual language model on 86 billion amino acids across 250 million sequences spanning evolutionary diversity. The resulting model maps raw sequences to representations of biological properties without labels or prior domain knowledge. The learned representation space organizes sequences at multiple levels of biological granularity from the biochemical to proteomic levels. [...]</span></blockquote><div><span style="color:rgb(25,25,25);font-family:"Lucida Sans",Helvetica,Arial,sans-serif;font-size:14.7px"><br></span></div><div><span style="color:rgb(25,25,25);font-family:"Lucida Sans",Helvetica,Arial,sans-serif;font-size:14.7px">Don't know if I have the energy to plow through the text.</span></div><div><span style="color:rgb(25,25,25);font-family:"Lucida Sans",Helvetica,Arial,sans-serif;font-size:14.7px"><br></span></div><div><span style="color:rgb(25,25,25);font-family:"Lucida Sans",Helvetica,Arial,sans-serif;font-size:14.7px">-- rec --</span></div></div>