Dentre os vários tipos disponíveis de redes neurais, existem 3 que podem ser usadas para classificar sequências, que são as CNN, RNN e LSTM.

O deep learning (DL), em tradução livre “aprendizado profundo”, está inserido dentro da inteligência artificial (IA)  e vem contribuindo muito para a ciência atualmente. O DL usa redes neurais profundas que tem o objetivo de imitar neurônios humanos, usando cálculos matemáticos. 

Existem alguns tipos de redes neurais, que têm sido aprimoradas com o passar do tempo, as quais abordam este texto. São elas: as  redes neurais convolucionais (CNN, convolutional neural networks), redes neurais recorrentes (RNN, recurrent neural networks) e as memória longa de curto prazo (LSTM, long short-term memory cells) que fazem parte das RNN.

As CNN são um tipo de rede neural usada para a identificação de imagens, agrupando-as ou fazendo reconhecimento, para problemas biológicos essas redes podem ser usadas para localizar sequências também. São redes capazes de captar imagens e atribuir pesos que vão passando para todas as camadas de convolução, esses pesos avaliam pequenas partes das imagens com diferentes filtros que tem o objetivo de evitar erros. 

Para melhorar ainda mais a rede, as CNN usam camadas de pooling (camadas de agrupamento) que removem detalhes que não são necessários para a composição das imagens e então os dados de saída se tornam mais exatos. 

Estrutura de uma rede neural convolucional
#ParaTodosVerem: A imagem mostra a estrutura de uma rede neural convolucional. Na imagem vemos a foto de um cachorro e um quadrado de ampliação no seu olho, o qual nos leva a uma camada de convolução com oito filtros, ao lado temos a camada de pooling, onde os dados das camadas de convolução tem seus erros reduzidos e repassados às camadas densas que irão classificar os dados e resulta nos dados de saída. Fonte: Adaptado de SOUZA, 2021. 

As redes RNN são mais usadas para dados sequenciais de uma série temporal, como dados de DNA. Além disso, esse tipo de arquitetura possui um mecanismo de retroalimentação, ou seja, é criado uma memória, o que se assemelha a um neurônio humano. A estrutura de uma RNN é composta por uma camada de entrada, camadas escondidas e uma camada de saída, essa rede guarda memórias, ou seja, os dados anteriores são levados em consideração pelo dado atual. 

Estrutura de uma RNN.
#ParaTodosVerem: A imagem mostra a estrutura de uma RNN. Na imagem vemos os dados de input que são passados para todas as camadas escondidas (círculos cinzas) e em seguida duas setas, uma delas é a de retroalimentação que leva em consideração os dados de input e a outra que é reta que passa a informação para a próximas camada. Fonte: Adaptado de: VASCO, 2020. 

As RNN são usadas em várias áreas como finanças, epidemiologia e outras. Na biotecnologia, uma variação de RNN é usada, a chamada LSTM. Essa variação é usada em algumas ferramentas de bioinformática como no SignalP 5.0, uma ferramenta usada para prever peptídeo sinal em sequências de aminoácidos é o sequenciador Oxford Nanopore

O LSTM então é uma RNN que surgiu com o objetivo de corrigir um problema recorrente nas RNN que é o vanishing gradient (gradiente de desaparecimento), problema que dificulta o treinamento das RNN pois os gradientes de função se aproximam de zero. Para corrigir o erro, a LSTM mantém o erro de forma constante, por várias camadas, dessa forma o modelo aprende com o erro. A sua arquitetura possui quatro redes neurais e diferentes blocos de memórias chamados de células, as quais contém a informação. Além disso, as LSTM possuem gates, em tradução livre “portões”, que realizam as manipulações de memória e existem 3 tipos de portões, os quais são: forget gate (portão esquecido), input gate (portão de entrada) e output gate (portão de saída).

No forget gate os dados são multiplicados por matrizes de peso e ganham novas informações, caso essas matrizes resultem em 1, as informações se mantém na célula, caso resultem em 0 essas informações são esquecidas. O input gate determina quais as informações devem entrar na célula, as novas informações passam por cálculos sigmóides, já que a equação da célula leva em consideração os dados existentes e aqueles que serão adicionados, dessa forma as informações não se perdem, e para ativar esses dados, uma função tanh é utilizada. E o output gate é o que leva as informações importantes para a próxima camada escondida da rede neural. 

Estrutura de uma LSTM
#ParaTodosVerem: Na imagem acima vemos a estrutura de uma LSTM. Existem círculos azuis preenchidos e os círculos vazados com X, os quais representam os locais onde ocorrem os cálculos sigmóides e de tanh. A entrada dos dados (portão de entrada) é representada pelo círculo azul preenchido alfa que está dentro de um quadrado vermelho, bem como o local de saída dos dados (portão de saída) e o portão de esquecimento. Fonte: Adaptado de  YUANHANG & JAY KUO, 2019.

O uso do aprendizado profundo e suas várias estruturas de redes neurais auxiliam cada vez mais pessoas, em várias profissões. Continue acompanhando os próximos textos da série sobre Machine Learning para não perder nenhuma informação!

Perfil de Isadora

Isadora Guidotti

Biotecnologista, Mestre em ciências, CEO BIOSCIENT e doutoranda no Omixlab. Atua no desenvolvimento de uma ferramenta para design de novos peptídeos anticâncer usando deep learning. 

Cite este artigo:
GUIDOTTI, I. Aprendizado Profundo: classificação de sequências. Revista Blog do Profissão Biotec. V. 10, 2023. Disponível em: <https://profissaobiotec.com.br/aprendizado-profundo-classificacao-sequencias/>. Acesso em: dd/mm/aaaa.

Referências: 

ARMENTEROS, A.J.J., TSIRIGOS, K.D., SØNDERBY, C.K. et al. SignalP 5.0 improves signal peptide predictions using deep neural networks. Nat Biotechnol 37, 420–423, 2019.
Capítulo 10 – As 10 Principais Arquiteturas de Redes Neurais. Data Science Academy. Deep learning book. 2021. Disponível em: <https://www.deeplearningbook.com.br/as-10-principais-arquiteturas-de-redes-neurais/>. Acesso em: 23 Nov 2021. 
Capítulo 40 – Introdução as Redes Neurais Convolucionais.  Data Science Academy. Deep learning book. 2021. Disponível em: <https://www.deeplearningbook.com.br/introducao-as-redes-neurais-convolucionais/>. Acesso em: 23 Nov 2021. 
KANG, E. Long short-term memory (LSTM): concept. Medium. 2017. Disponível em: <https://medium.com/@kangeugine/long-short-term-memory-lstm-concept-cb3283934359>. Acesso em: 06 Dez 2021. 
KREMER, F.S. Criando um preditor de peptídeo sinal utilizando LSTM. Omixdata. 2020. Disponível em: <https://medium.com/omixdata/criando-um-preditor-de-pept%C3%ADdeo-sinal-utilizando-lstm-647db5b7ca07>. Acesso em: 06 Dez 2021.
LIU, Q., FANG, L., YU, G. et al. Detection of DNA base modifications by deep recurrent neural network on Oxford Nanopore sequencing data. Nat Commun 10, 2449, 2019.
MATSUMOTO, F., DUARTE, G. MURAKAMI, L. Redes neurais recorrentes. Medium. 2019. Disponível em: <https://medium.com/turing-talks/turing-talks-26-modelos-de-predi%C3%A7%C3%A3o-redes-neurais-recorrentes-439198e9ecf3>. Acesso em: 01 Dez 2021.
SOUZA, L.R. Representação, classificação e interpretação de sequências proteicas do vírus da dengue. Dissertação (mestrado) – Programa de Pós-Graduação em Informática, Universidade Federal do Amazonas. Manaus. 93f. 2021. 
OSKOLKOV, N. LSTM to detect neanderthal DNA. Towards data science. 2019. Disponível em: <https://towardsdatascience.com/lstm-to-detect-neanderthal-dna-843df7e85743>. Acesso em: 06 Dez 2021. 
WANG, C. The vanishing gradient problem. Towards data science. 2019. Disponível em: <https://towardsdatascience.com/the-vanishing-gradient-problem-69bf08b15484>. Acesso em: 06 Dez 2021. 
YUANHANG, S; JAY KUO, C.C. On extended long short-term memory and dependent bidirectional recurrent neural network. Neurocomputing. v.356, p 151-161. 2019. 
Fonte da imagem destacada: Vecteezy.

Sobre Nós

O Profissão Biotec é um coletivo de pessoas com um só propósito: apresentar o profissional de biotecnologia ao mundo. Somos formados por profissionais e estudantes voluntários atuantes nos diferentes ramos da biotecnologia em todos os cantos do Brasil e até mesmo espalhados pelo mundo.

Recentes

Assine nossa newsletter

Ao clicar no botão, você está aceitando receber nossas comunicações. 

X