반응형 전체 글80 AI가 쓴 글은 왜 다 비슷하게 느껴질까? AI가 쓴 글은 읽기에는 편합니다.하지만 무엇을 말하려는 글이었는지는 잘 남지 않습니다.가장 정답에 가까운 표현을 고르다 보니, 무난해지는 대신 개성과 중심이 흐려집니다.AI 글을 읽다보면 느껴지는 불편함 AI가 쓴 글을 읽다보면 느껴지는게 있습니다. 문장은 깔끔하고, 맞춤법도 틀리지 않고, 논리도 뛰어납니다. 최근에는 정보의 정확성 또한 높아져서 왠만한 사람이 쓴 글보다 뛰어나고 맞는말만 모아놓은 잘 쓴 글이라는 생각이 들기까지 합니다. 그런데 자세히 생각해보면 뭔가가 부족하다고 생각되는 경우가 많습니다. 읽고나면 문장이 잘 기억에 남지 않고 이 글이 무엇을 말했는지 묻는 순간 답이 바로 나오지 않고 어려워하는 경우가 많습니다. 이러한 현상은 특정 글에만 나타나는 현상이 아닙니다. 블로그 글이든 보.. 2026. 1. 22. GPU를 지나 TPU로? 최근 TPU가 각광받는 이유 GPU의 비싼 가격과 막대한 전력 소모가 AI 산업의 발목을 잡으면서, 구글이 만든 고효율 딥러닝 전용 반도체인 TPU가 다시금 주목받고 있습니다.딥러닝 연산에만 집중해 비용 대비 압도적인 성능을 보여주는데, 이는 이제 AI 산업이 성능을 넘어 비용 효율에 중점을 두고 있음을 보여줍니다.특히 TPU 한 대당 6~8개의 HBM이 탑재되는데 이를 대부분 공급하는 삼성전자와 SK하이닉스에게도 새로운 성장의 기회가 되고 있습니다.최근 다시 언급되고 있는 TPU AI가 발전하면서 가장 주목을 받은 것은 한 번에 여러 개의 연산 작업을 처리할 수 있는 GPU입니다. 따라서 GPU를 주로 제작하는 Nvidia의 가치도 급상승했구요. 하지만 최근 들어 GPU 못지 않게 자주 언급되는 이름이 있으니 바로 TPU 입니다.. 2025. 12. 29. [ML][용어] GELU 함수 GELU는 입력을 양수일 확률만큼 부드럽게 통과시키는 활성화 함수로, 매끄러운 비선형성과 죽은 뉴런 완화라는 장점이 있지만 ReLU보다 계산이 복잡한 단점이 있습니다. 1. GELU 함수의 정의 GELU(Gaussian Error Linear Unit) 함수는 입력값 x를 확률적으로 통과시키는 활성화 함수입니다.ReLU는 0보다 작으면 아예 끊어버리지만, GELU는 작은 음수도 조금은 통과시켜서 부드러운 출력 곡선을 만듭니다. 수학적으로 정의하면 다음과 같습니다.더보기 Φ(x)는 표준정규분포의 누적분포함수(CDF) 입니다.즉, 평균 0·분산 1인 정규분포에서 임의로 뽑은 값이 x 이하일 확률입니다.따라서 x Φ(x)는 입력 x를 확률 Φ(x) 만큼 통과시킨 값으로 볼 수 있습니다. 여기서, Φ(x)는 .. 2025. 10. 10. [ML][용어] tanh 함수(하이퍼볼릭 탄젠트 함수) tanh 함수는 -1~1 범위의 비선형 함수로, 평균이 0에 가까워 학습이 안정적이지만, 경사 소실 문제와 ReLU 대비 계산 비용이 높은 한계가 있습니다. 1. tanh 함수의 정의 하이퍼볼릭 탄젠트 함수는 입력값을 -1과 1 사이의 값으로 압축하는 S자 형태의 비선형 함수입니다.수학적으로 정의하면 다음과 같습니다.여기서, 입력이 클수록 출력은 1에 가까워지며, 입력이 작을수록 출력은 -1에 가까워집니다.즉, x가 매우 큰 양수면 e^x기 압도적으로 커져서 (x → +∞), f(x) = 1반대로 x가 매우 큰 음수면 e^-x가 압도적으로 커져서 (x → -∞), f(x) = -1 이 됩니다.2. 주요 특징1) 비선형성tanh 함수는 비선형 함수를 제공하므로, 신경망이 복잡한 패턴을 학습할 수 있게 해.. 2025. 10. 10. 이전 1 2 3 4 ··· 20 다음 반응형