반응형 용어4 [ML][용어] GELU 함수 GELU(Gaussian Error Linear Unit)함수는 입력 값을 정규 분포의 확률로 변환하여 활성화하는 방식입니다. 입력이 클수록 더 많이, 작을수록 덜 활성화되며, 이를 통해 부드럽고 확률적인 활성화가 이루어집니다. 최신 신경망 모델에서 자주 사용되며, 학습의 안정성과 성능 향상에 기여합니다.GELU (Gaussian Error Linear Unit) 함수는 신경망에서 활성화 함수로 사용되는 함수 중 하나입니다.ReLU (Rectified Linear Unit)와 유사하게 비선형성을 제공하지만, 보다 매끄럽고 자연스러운 방식으로 동작합니다. 특히, Transformer와 같은 최신 신경망 구조에서 ReLU 대신 종종 사용되며, BERT 모델에서도 활성화 함수로 사용됩니다.1. GELU 함수의.. 2024. 10. 7. [통계][용어] Kolmogorov-Smirnov Test(KS 검정) Kolmogorov-Smirnov Test(KS 검정)는 데이터를 비교하여 두 데이터 세트가 동일한 분포를 따르는지 또는 한 데이터 세트가 특정 분포를 따르는지를 확인하는 비모수적 통계 검정입니다. 이 검정은 데이터가 정규 분포를 따르는지 확인하는 데 유용합니다. Kolmogorov-Smirnov 검정(KS 검정)은 두 개의 누적 분포 함수(CDF)를 비교하여 두 데이터 세트가 동일한 분포를 따르는지 또는 주어진 데이터가 특정 분포(예: 정규 분포)를 따르는지를 평가하는 비모수적 통계 검정입니다. 이 검정은 연속형 변수에 사용되며, 특히데이터의 분포에 대해 가정하지 않는 비모수 검정입니다.1-표본 KS 검정 (One-sample KS test)- 주어진 데이터가 특정 누적 분포 함수(CDF)를 따르는지 .. 2024. 7. 20. [통계][용어] Shapiro-Wilk Test(샤피로-윌크 검정) Shapiro-Wilk Test(샤피로-윌크 검정)는 주어진 데이터가 정규 분포를 따르는지를 검정하는 통계적 방법 중 하나입니다. 이 검정은 특히 소규모 표본에 대해 강력한 성능을 보여줍니다. p-value > 0.05이면 귀무가설(데이터가 정규 분포를 따른다)을 기각하지 않고, p-value ≤ 0.05(데이터가 정규 분포를 따른다)이면 귀무가설을 기각합니다.Shapiro-Wilk 검정은 1965년에 Shapiro와 Wilk에 의해 제안된 방법으로, 데이터의 정규성을 검정하기 위해 사용됩니다가설은 다음과 같습니다.- 귀무가설(H0): 데이터가 정규 분포를 따른다.- 대립가설(H1): 데이터가 정규 분포를 따르지 않는다. 검정 절차1. 데이터 정렬데이터 X1,X2,...,Xn을 오름차순으로 정렬합니다.2.. 2024. 7. 20. [IT][용어] False positive (오탐, 거짓 양성) 간단한 용어 정리False positive(오탐, 거짓 양성)Binary classification (이진 분류)에서 negative(음성. 보통 0)를 positive(보통 1)로 잘못 판정하는 오류.즉, 오류가 아닌데 오류라고 판정하는 경우.positive(양성)를 negative(음성)로 판정하는 것은 False Negative (거짓음성) 오류.False positive(오탐)는 검사나 테스트 결과가 실제로는 그렇지 않은데도 불구하고 양성(positive)으로 나타나는 경우를 의미합니다. False positive(오탐)의 사례 예를 들어,환자가 암 검진을 받았는데, 실제로는 암이 없는 상태에서 검사 결과가 양성으로 나오거나,정상적인 네트워크 활동을 해킹 시도로 잘못 인식하여 경고를 발생시키는 경.. 2024. 7. 13. 이전 1 다음 반응형