Modelos de linguagem natural (PNL)
Introdução
Em geral
processamento de linguagem natural (l) linguagem natural ou linguagem natural(je)s,[1][2] abreviado PLN[3][4] (ou PNL por sua sigla em inglês), é um campo da ciência da computação, inteligência artificial e linguística que estuda as interações entre computadores e a linguagem humana, bem como os detalhes computacionais das linguagens naturais. Trata da formulação e pesquisa de mecanismos computacionalmente eficientes para a comunicação entre pessoas e máquinas através da linguagem natural, ou seja, as línguas do mundo. Não se trata de comunicação através de linguagens naturais de forma abstrata, mas de projetar mecanismos de comunicação que sejam computacionalmente eficientes – que podem ser realizados por meio de programas que executam ou simulam a comunicação. Os modelos aplicados focam não apenas na compreensão da linguagem em si, mas também nos aspectos cognitivos humanos gerais e na organização da memória. A linguagem natural serve apenas como meio de estudar esses fenômenos. Até a década de 1980, a maioria dos sistemas de PNL baseava-se em um conjunto complexo de regras elaboradas à mão. A partir do final da década de 1980, entretanto, houve uma revolução na PNL com a introdução de algoritmos de aprendizado de máquina para processamento de linguagem[5][6].
História
A história do PLN começa em 1950, embora tenham sido encontrados trabalhos anteriores. Em 1950, Alan Turing publicou Maquinaria computacional e inteligência, onde propôs o que hoje é chamado de teste de Turing como um critério qualitativo de inteligência superior. Em 1954, a experiência de Georgetown envolveu a tradução automática de mais de sessenta frases do russo para o inglês. Os autores argumentaram que em três ou cinco anos a tradução automática seria um problema resolvido. O progresso real na tradução automática foi mais lento e, em 1966, o relatório ALPAC mostrou que a investigação tinha tido um desempenho fraco. Mais tarde, até o final da década de 1980, foram realizadas pesquisas em menor escala em tradução automática e foram desenvolvidos os primeiros sistemas estatísticos de tradução automática. Isto deveu-se tanto ao aumento constante do poder computacional resultante da lei de Moore como ao declínio gradual no domínio das teorias linguísticas de Noam Chomsky (por exemplo, gramática transformacional), cujos fundamentos teóricos desencorajaram o tipo de linguística de corpus, que se baseia na abordagem de aprendizagem automática para o processamento da linguagem. Foram então utilizados os primeiros algoritmos de aprendizado de máquina, como árvores de decisão, sistemas produzidos a partir de declarações se-então semelhantes a regras escritas à mão. Análise")*.[7][8].