A 'computação em memória' - ou 'memória computacional' - é um conceito emergente que utiliza as propriedades físicas das memórias de computador para processar informações, além de armazená-las. No entanto, a computação atual é baseada na arquitetura von Neumann, que precisam fazer os dados transitarem entre a memória e o processador, o que os torna mais lentos e menos eficientes em termos de energia.
A IBM anunciou que seus engenheiros conseguiram rodar um algoritmo de aprendizado de máquina sem supervisão em um milhão de células de memória PCM. O programa de inteligência artificial rodou e encontrou correlações temporais em fluxos de dados desconhecidos, comprovando a efetividade da memória computacional. Os resultados foram aferidos em um computador comum.
Em comparação com os computadores clássicos de ponta, os engenheiros calculam que esta tecnologia - ainda em fase de protótipo - produza ganhos de 200 vezes em velocidade de processamento e em eficiência energética, tornando a computação em memória útil para sistemas de computação ultradensa, como nos centros de dados, e aplicações paralelas, como na inteligência artificial, como também para aparelhos de baixa potência, onde a duração das baterias é importante.
A equipe utilizou células de memória PCM feitas de uma liga de telureto de antimônio e germânio, semicondutores que são empilhados de forma intercalada entre dois eletrodos. Quando uma corrente elétrica é aplicada ao material, ele se aquece, o que altera seu estado de amorfo para cristalino.
Para fazer os cálculos, a corrente elétrica aplicada é dosada de acordo com o dado a ser processado. A memória responde com uma dinâmica de cristalização correspondente à corrente, de forma que o resultado da operação é expresso em seu estado de condutância final, determinado pelo processo de cristalização.
Escreva um comentário
Sem comentários