[밑시딥2] RNN August 15, 2024 최대 1 분 소요 RNN (Recurrent Neural Network) 에서의 Recurrent의 의미를 생각하면 모델의 구조가 계속해서 순환하는 구조임을 대략적으로 유추할 수 있습니다 공유하기 Twitter Facebook LinkedIn 이전 글  [밑시딥2] 진짜 word2vec 가장 최근 글입니다 댓글남기기
[Review] Data-Free Quantization via Pseudo-label Filtering, CVPR, 2024 September 11, 2024 1 분 소요 Zero Shot Quantization
[Review] GENIE: Show Me the Data for Quantization, CVPR, 2023 September 10, 2024 2 분 소요 Zero Shot Quantization
[Review] Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time, ICML, 2022 August 19, 2024 최대 1 분 소요 Model soups
[Review] Similarity of Neural Architectures using Adversarial Attack Transferability, ECCV, 2024 August 17, 2024 최대 1 분 소요 Model Similarity
댓글남기기