Back Propagation 보다 대뇌피질 작동방식에 유사시냅스의 처음으로 돌아가기 전에 cortical layer를 지나는 과정에서 모종의 루프를 형성한다네트워크의 레이어 수가 많아질수록 FF가 Backprop보다 메모리를 덜 사용합니다. 하지만 20개 이하의 레이어를 가진 thin network에서는 FF가 backprop보다 훨씬 더 많은 메모리를 사용Forward Forward Algorithm Notion [딥러닝] The Forward-Forward Algorithm: Some Preliminary Investigations (FF)Forward-Forward (FF) 리뷰https://velog.io/@nochesita/딥러닝-The-Forward-Forward-Algorithm-Some-Preliminary-InvestigationsWelcome to JunYoung's blog | 딥러닝의 체계를 바꾼다! The Forward-Forward Algorithm 논문 리뷰 (1)Forward-forward algorithmhttps://junia3.github.io/blog/ffalgorithmThe Forward-Forward Algorithm: Some Preliminary InvestigationsThe aim of this paper is to introduce a new learning procedure for neural networks and to demonstrate that it works well enough on a few small problems to be worth further investigation. The...https://arxiv.org/abs/2212.13345