Forward Forward Algorithm

Created
Created
2023 Apr 3 15:5
Editor
Creator
Creator
Seonglae ChoSeonglae Cho
Edited
Edited
2025 Jan 10 22:45
Refs
Refs

Gradient Descent
through the Denoising loss using
Energy Function

Back Propagation
보다 대뇌피질 작동방식에 유사 by
Geoffrey Hinton
시냅스의 처음으로 돌아가기 전에 cortical layer를 지나는 과정에서 모종의 루프를 형성한다
네트워크의 레이어 수가 많아질수록 FF가 Backprop보다 메모리를 덜 사용합니다. 하지만 20개 이하의 레이어를 가진 thin network에서는 FF가 backprop보다 훨씬 더 많은 메모리를 사용
Automatic Differentiation
과 달리 기울기 계산은 안함
Forward Forward Algorithm Notion
 
 
 
 
 
 
 
 

Recommendations