> Trajecta Blog :: Quando as máquinas aprendem a aprender

Inicialmente, nunca é demais lembrar que John Searle propôs o conhecido teste do Quarto Chinês, onde, em essência, busca provar a incapacidade de entendimento das máquinas de compreenderem as palavras e o seu real significado, como fazem os seres humanos, ou, como ainda refere seu autor, a sua semântica.

Mas, se as ciências da computação são fartas de atalhos para o aprendizado humano, é natural imaginar que o mesmo seja induzido para o aprendizado de máquina. Entretanto, a Inteligência Artificial Forte, e Genérica, ou AGI, é um desafio tão complexo que provavelmente quanto mais paradigmas criarmos, mais lentos serão os caminhos para chegar em níveis realmente práticos.

Dessa forma, prefiro começar com estruturas de dados o mais próximas possíveis do objetivo central, que é o aprendizado, para abrir portas para a criação de modelos adaptados a essas estruturas, sem alguma regra específica para isso. Uma ideia central que considero para isso, com uma proposta de modelo e paradigma em uma camada de abstração bastante alta, denominada de Base de Aprendizados.

E, se as máquinas aprendem, esse aprendizado pode se transformar em uma base que seja um facilitador para qualquer outra rede neural, artificial ou natural, aprender.

Para isso, podemos pensar em duas necessidades de informações básicas para a produção de inteligência artificial: pergunta e resposta, com uma base de aprendizado estruturada com esse paradigma. Em tese, a capacidade de narrativa seria uma terceira necessidade a ser considerada, mas essa será colocada em outra camada de nossa abstração, e para futuros posts.

Nesse sentido, a medida que a máquina busca respostas para as mais diversas perguntas, que inclusive não necessitam ser necessariamente humanas, mas também da própria máquina ou de outras – e isso é importante destacar, pois o conceito apresentado no mercado de Inteligência Aumentada foca basicamente na inteligência humana de perguntas, o que me parece subestimar a capacidade de inferência e abstração de consciência artificial das máquinas – é natural que as respostas encontradas, mesmo que não sejam corretas, ao menos para o momento atual, sejam tratadas como uma representação do aprendizado até o momento em busca da verdade, que no caso, seria a resposta que atende de forma qualitativa e quantitativa o objetivo e dúvida da pergunta, principalmente através de um modelo formal para isso, representado em forma de algoritmos que possam ser traduzidos em código de máquina.

E, quando as respostas são tão eficientes, ou mais, que as das pessoas, e especialistas, atingimos o nível que parecia de domínio apenas humano, ou seja, quando as máquinas aprendem a aprender.

___

Por Rogerio Figurelli em 14/09/2020
Senior IT Architect, Engineer, Expert & Solutions Consultant
https://www.linkedin.com/in/figurelli/