Differences
This shows you the differences between two versions of the page.
data_analysis:statistics_and_machine_learning [2024/07/04 06:47] – [LLM] prgram | data_analysis:statistics_and_machine_learning [2025/07/07 14:12] (current) – external edit 127.0.0.1 | ||
---|---|---|---|
Line 762: | Line 762: | ||
GAN이 가장 많이 기여한 것이 바로 이미지 합성 분야다. 두 개의 다른 이미지를 합성하여 새로운 이미지를 생성하는 데 GAN이 사용된다. 예를 들어, 풍경 사진에 구름을 추가하려고 한다면, GAN을 사용하여 풍경 이미지와 구름 이미지의 잠재공간의 벡터를 얻은 뒤, 두 벡터 값을 적절하게 결합해 새로운 벡터를 생성한다. 이후 새로운 벡터를 디코딩하면 원래 풍경 이미지에 구름이 있는 새로운 이미지를 얻는다. | GAN이 가장 많이 기여한 것이 바로 이미지 합성 분야다. 두 개의 다른 이미지를 합성하여 새로운 이미지를 생성하는 데 GAN이 사용된다. 예를 들어, 풍경 사진에 구름을 추가하려고 한다면, GAN을 사용하여 풍경 이미지와 구름 이미지의 잠재공간의 벡터를 얻은 뒤, 두 벡터 값을 적절하게 결합해 새로운 벡터를 생성한다. 이후 새로운 벡터를 디코딩하면 원래 풍경 이미지에 구름이 있는 새로운 이미지를 얻는다. | ||
[20230331_Everything Everywhere All at Once AI가 불러온 신산업 혁명_미래에셋증권] | [20230331_Everything Everywhere All at Once AI가 불러온 신산업 혁명_미래에셋증권] | ||
+ | |||
+ | [[data_analysis: | ||
===VAE=== | ===VAE=== | ||
AE는 데이터 압축과 특징 추출에 주로 사용되는 반면, VAE는 데이터의 확률적 모델링과 새로운 데이터 생성에 더 적합합니다. | AE는 데이터 압축과 특징 추출에 주로 사용되는 반면, VAE는 데이터의 확률적 모델링과 새로운 데이터 생성에 더 적합합니다. | ||
Line 786: | Line 788: | ||
LDM과 SDM은 목적과 사용 사례에 따라 각기 장점이 있는 생성 모델이다. 따라서 LDM과 SDM 중 어느 것이 더 우수하다고 평가할 수는 없고, 사용 사례와 기술적 요구 사항에 따라 달라진다 | LDM과 SDM은 목적과 사용 사례에 따라 각기 장점이 있는 생성 모델이다. 따라서 LDM과 SDM 중 어느 것이 더 우수하다고 평가할 수는 없고, 사용 사례와 기술적 요구 사항에 따라 달라진다 | ||
[20230331_Everything Everywhere All at Once AI가 불러온 신산업 혁명_미래에셋증권] | [20230331_Everything Everywhere All at Once AI가 불러온 신산업 혁명_미래에셋증권] | ||
+ | |||
+ | |||
+ | |||
+ | ===스타일 전이=== | ||
+ | [[https:// | ||
+ | 스타일 전이를 구현하는 방법은 일반적인 딥러닝 알고리즘의 구현 방법과 크게 다르지 않다. 먼저 우리가 원하는 목표를 가리키는 손실 함수를 정의하고, | ||
+ | |||
+ | 스타일 전이에서의 목표는 원본 이미지의 콘텐츠를 보존하면서 참조 이미지의 화풍을 적용하는 것이다. 나머지는 콘텐츠와 화풍을 수학적으로 표현하고, | ||
+ | |||
+ | 손실 함수를 정의할 때 가장 중요한 점은 한쪽 이미지에는 콘텐츠를 보존하고 다른 이미지에는 화풍을 보존해야 하는 것이다. | ||
+ | |||
+ | - 콘텐츠 손실: 콘텐츠 이미지와 통합 이미지 사이에 계산되는 손실. 이 손실을 최소화하면 원본 이미지의 콘텐츠가 통합 이미지에 더 많이 보존된다. | ||
+ | - 스타일 손실: 스타일 이미지와 통합 이미지 사이에 계산되는 손실. 이 손실을 최소화 하면 통합 이미지의 화풍이 스타일 이미지와 비슷해진다. | ||
+ | - 노이즈 손실: 총 분산 손실이라고도 한다. 통합 이미지에 포함된 노이즈 양을 측정한 값이다. 이 손실을 최소화 하면 이미지가 매끄러워진다. | ||
+ | |||
+ | 총 손실을 다음과 같이 계산된다. | ||
+ | |||
+ | 총_손실 = [스타일(스타일_이미지) - 스타일(통합_이미지)] + [콘텐츠(원본_이미지) - 콘텐츠(통합_이미지)] | ||
+ | |||
+ | 앞서 정의한 총 손실을 최소화하는 신경망 학습 방법을 이해해 보자. | ||
====LLM==== | ====LLM==== | ||
Line 806: | Line 828: | ||
[[data_analysis: | [[data_analysis: | ||
- 디코더만 사용 | - 디코더만 사용 | ||
+ | - Large model이면 디코더만 있어도 decoder-only models can internally encode necessary context from prior tokens, reducing the need for an explicit encoder. | ||
+ | - Decoder-only models still leverage self-attention (though in a causal form), allowing them to capture dependencies efficiently. | ||
+ | - Many tasks that traditionally required encoder-decoder architectures can now be handled end-to-end with a sufficiently large decoder-only model. | ||
+ | - With enough training data, a decoder-only model learns latent representations of input text similar to an encoder but in a more flexible, autoregressive way. | ||
+ | |||
+ | === 유사도 Encoder === | ||
+ | **Cross-Encoder: | ||
+ | 1. 구조: 두 문장을 동시에 하나의 인코더에 입력하여 처리합니다[1]. | ||
+ | 2. 성능: 일반적으로 더 높은 정확도를 보입니다. 문맥을 고려하므로 더 나은 검색 성능을 제공할 수 있습니다[2]. | ||
+ | 3. 처리 방식: 질의와 문서 쌍을 함께 입력으로 받아 처리합니다. 입력 형식은 " | ||
+ | 4. 단점: 계산 비용이 높고 처리 시간이 많이 소요됩니다. 특히 큰 데이터셋에서는 사용하기 어렵습니다[2]. | ||
+ | |||
+ | **Bi-Encoder: | ||
+ | 1. 구조: 두 문장을 별도의 인코더로 독립적으로 처리합니다[1]. | ||
+ | 2. 성능: Cross-Encoder보다 정확도가 다소 낮을 수 있지만, 실제 사용에 더 유리합니다[3]. | ||
+ | 3. 처리 방식: 문서와 질의를 각각 별도로 인코딩한 후, 유사도를 측정하여 관련성이 높은 문서들을 찾습니다[2]. | ||
+ | 4. 장점: 문서들을 미리 임베딩하여 저장해놓을 수 있어, 실제 검색 시 질의에 대해서만 임베딩한 후 유사도 측정을 진행하면 되므로 소요 시간이 비교적 적습니다[2]. | ||
+ | 5. 확장성: 대규모 데이터셋에 적합하며, | ||
+ | 결론적으로, | ||
+ | |||
+ | Citations: | ||
+ | [1] https:// | ||
+ | [2] https:// | ||
+ | [3] https:// | ||
+ | [4] https:// | ||
+ | [5] https:// | ||
+ | |||
+ | 실제 응용에서는 두 방식을 결합하여 사용하는 경우도 많습니다. 예를 들어, 대규모 검색에서는 Bi-Encoder를 사용하여 초기 검색을 수행한 후, 상위 결과에 대해 Cross-Encoder를 적용하여 더 정확한 순위를 매기는 방식을 사용할 수 있습니다. 이렇게 함으로써 Bi-Encoder의 효율성과 Cross-Encoder의 정확성을 모두 활용할 수 있습니다. | ||