Gradient Descent through the Denoising loss using Energy Function
Back Propagation 보다 대뇌피질 작동방식에 유사 by Geoffrey Hinton
시냅스의 처음으로 돌아가기 전에 cortical layer를 지나는 과정에서 모종의 루프를 형성한다
네트워크의 레이어 수가 많아질수록 FF가 Backprop보다 메모리를 덜 사용합니다. 하지만 20개 이하의 레이어를 가진 thin network에서는 FF가 backprop보다 훨씬 더 많은 메모리를 사용
Forward Forward Algorithm Notion