data_analysis:statistics_and_machine_learning

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

data_analysis:statistics_and_machine_learning [2024/07/04 08:00] – [GAN] prgramdata_analysis:statistics_and_machine_learning [2025/07/07 14:12] (current) – external edit 127.0.0.1
Line 828: Line 828:
 [[data_analysis:GPT]] [[data_analysis:GPT]]
 - 디코더만 사용 - 디코더만 사용
 +- Large model이면 디코더만 있어도 decoder-only models can internally encode necessary context from prior tokens, reducing the need for an explicit encoder.
 +- Decoder-only models still leverage self-attention (though in a causal form), allowing them to capture dependencies efficiently.
 +- Many tasks that traditionally required encoder-decoder architectures can now be handled end-to-end with a sufficiently large decoder-only model.
 +- With enough training data, a decoder-only model learns latent representations of input text similar to an encoder but in a more flexible, autoregressive way.
 +
 +=== 유사도 Encoder ===
 +**Cross-Encoder:**
 +1. 구조: 두 문장을 동시에 하나의 인코더에 입력하여 처리합니다[1].
 +2. 성능: 일반적으로 더 높은 정확도를 보입니다. 문맥을 고려하므로 더 나은 검색 성능을 제공할 수 있습니다[2].
 +3. 처리 방식: 질의와 문서 쌍을 함께 입력으로 받아 처리합니다. 입력 형식은 "[CLS]질의[SEP]문서[SEP]"입니다[2].
 +4. 단점: 계산 비용이 높고 처리 시간이 많이 소요됩니다. 특히 큰 데이터셋에서는 사용하기 어렵습니다[2].
 +
 +**Bi-Encoder:**
 +1. 구조: 두 문장을 별도의 인코더로 독립적으로 처리합니다[1].
 +2. 성능: Cross-Encoder보다 정확도가 다소 낮을 수 있지만, 실제 사용에 더 유리합니다[3].
 +3. 처리 방식: 문서와 질의를 각각 별도로 인코딩한 후, 유사도를 측정하여 관련성이 높은 문서들을 찾습니다[2].
 +4. 장점: 문서들을 미리 임베딩하여 저장해놓을 수 있어, 실제 검색 시 질의에 대해서만 임베딩한 후 유사도 측정을 진행하면 되므로 소요 시간이 비교적 적습니다[2].
 +5. 확장성: 대규모 데이터셋에 적합하며, 쉽게 확장할 수 있습니다[4].
 +결론적으로, Cross-Encoder는 높은 정확도를 제공하지만 처리 속도와 확장성에 제한이 있습니다. Bi-Encoder는 빠른 처리 속도와 높은 확장성을 제공하지만 정확도가 다소 낮을 수 있습니다. 따라서 작업의 특성과 요구사항에 따라 적절한 모델을 선택해야 합니다[5].
 +
 +Citations:
 +[1] https://velog.io/%40xuio/Cross-Encoder%EC%99%80-Bi-Encoder-feat.-SentenceBERT
 +[2] https://nlp.jbnu.ac.kr/AIJBNU2023/slides/aijbnu2023_denseretrieval.pdf
 +[3] https://ydy8989.github.io/2021-08-11-polyencoder/
 +[4] https://acdongpgm.tistory.com/353
 +[5] https://velog.io/%40tobigs-nlp/Poly-Encoder
 +
 +실제 응용에서는 두 방식을 결합하여 사용하는 경우도 많습니다. 예를 들어, 대규모 검색에서는 Bi-Encoder를 사용하여 초기 검색을 수행한 후, 상위 결과에 대해 Cross-Encoder를 적용하여 더 정확한 순위를 매기는 방식을 사용할 수 있습니다. 이렇게 함으로써 Bi-Encoder의 효율성과 Cross-Encoder의 정확성을 모두 활용할 수 있습니다.
  
  
  • data_analysis/statistics_and_machine_learning.1720080009.txt.gz
  • Last modified: 2025/07/07 14:12
  • (external edit)