분류 전체보기 20

[선형대수] 2-7. 전사함수와 일대일함수

1. 전사함수 (ONTO Mapping): 매핑 T:R^n→R^m에서 모든 b∈R^m이 적어도 하나의 x∈R^n에 대한 이미지(b=T(x))일 때즉 , 전사 함수는 공역(Codomain)의 모든 원소가 적어도 하나의 치역(Range)에 대응되는 경우를 말한다 핵심 특징: 치역(Range)과 공역(Codomain)이 일치해야 합니다.Onto가 아닌 경우: 치역이 공역(Rm)의 일부 공간(예: 3차원 내의 평면)에만 머무를 때.Onto인 경우: 치역이 공역 전체를 꽉 채울 때. -> 공역이 모두 치역에 대응해야함 -> 정의역 개수> 공역의 개수 2. 일대일 함수 (One-to-one Mapping): 매핑 T:R^n→R^m에서 각 b∈Rm이 최대 하나의 x∈R^n에 대한 이미지일 때, 이를 One-to-..

선형대수 2026.03.30

[선형대수] 2-6. 선형변환(Linear Transformation)

오늘은 선형변환에 대해서 배워봤습니다. 1. Transformation (변환): 입력 x → 출력 y로 바꾸는 함수: 표기: T:x→yT:x→yDomain: 가능한 입력 값들Codomain: 가능한 출력 값들Image: 특정 x에 대한 출력Range: 실제 출력 값들의 집합특정 x-> 의 출력값은 함수값은 1개다 2. 선형변환(Linear Transformation): 형태를 유지하는 변환이다. 즉, 스칼라곱과 백터합이 같을 경우 선형변환이다선형변환은 항상 T(0) =0 원점으로 간다 선형변환 예시 3. Transformation between Vectors(벡터 변환): n차원 백터를 m차원 벡터로 바꾸는 것 첨에는 왜 차원이 바뀌지 생각했는데 어떤 규칙에 따라서 바꿈(인공지능에서 차원축소와 확장 ..

선형대수 2026.03.30

[시냅스 3주차] 이미지 처리의 혁명, CNN

이제 3주차 마지막인데요이번 주차 정말 양이 방대하네용.. 화이팅 1. MLP 한계 MLP 한계1). 파라미터 폭팔: 이미지를 그대로 펼쳐서 입력으로 사용하기 때문에해상도가 높아질수록 파라미터 수가 기하급수적으로 증가 문제는 단순히 크다가 아닌- 학습속도 저하- 데이터 부족 시 쉽게 과적합- 이미지 크기가 커질수록 계산량 폭발적으로 증가 예) 224 x 224 x 3 의 이미지 flatten 하면 총 입력 => 50,176 x 3여기에 1,000개의 뉴련을 fully-connected로 연결하면 => 150,528 x 1,000 =150,528,000 약 1억 5천만개의 가중치 2) 공간정보손실: flatten은 이미지의 구조를 완전히 무너뜨리는 과정이다 이미지는 원래 2D 구조여서 \(0,0), (0,..

시냅스 2026.03.30

[시냅스 3주차] 딥러닝 학습의 원리

Flat Region (평평한 영역)이번에는 딥러닝의 학습의 원리에 대해서 배워볼건데요양이 매우매우 많아요..... 하하 역대급 58페이지여서 화이팅 하면서 써볼게요 이번에는 많아서 목차는 사진으로 해볼게요 ,,ㅎ 딥러닝 모델은 단순히 데이터를 외우는 것이 아니라데이터를 학습시켜 예측하고 틀린 정도를 확인해 손실을 줄이는 방향으로 반복적으로 학습하며 성능을 향상시킨다.하지만 단순히 학습하는 것만으로는 충분하지 않으며, 안정적인 학습, 일반화, 그리고 올바른 평가까지 모두 고려해야 한다.이 글에서는 딥러닝 모델이 어떻게 학습되고, 어떻게 더 잘 학습되며, 어떻게 평가되는지를 핵심 위주로 정리한다. 1. 신경망의 학습: 정답과의 차이를 줄이도록 내부값(가중치, 편향)을 조금씩 바꾸는 과정 어느방향? 얼마..

시냅스 2026.03.30

[시냅스 3주차]인공신경망과 퍼셉트론

이번 주가 벌써 3주차이네용.3주차에는 딥러닝에 대해서 기초세션 학습을 했습니다.기초 개념인 인공신경망과 퍼셉트론 특히 퍼셉트론의 구조와 한계를이해하고, 이를 극복하기 위한 다층 퍼셉트론과 활성화 함수의 필요성에 대해 살펴보았다. 3월도 다 끝나가는데.... 화이팅 1. 딥러닝 등장 배경 및 복습 초기 인공지능: Rule-based방식(사람이 직접 규칙 명시) 문제점: 새로운 상황에 대응 어려움/ 복잡한 문제 해결 한계 => Ai가 데이터로부터 규칙을 자동학습하도록 발전했다=> 사람의 규칙 설계->데이터 기반 매개변수 학습 초기 머신러닝 모델선형회귀목적: 연속값 예측특징: 최소제곱 가정, 선형성-이상치 민감로지스틱 회귀목적: 이진 분류특징: 해석 용이, 비선형데이터 한계퍼셉트론목적: 이진 분류(초기 신경..

시냅스 2026.03.30

[UMC] CHAPTER 2. 문제 정의와 리서치 (2)

이번에는 2주차 블로그를 써보았어요.3주차부터는 본격적인 앱 기획을 위해 문제 정의와 아이디어 기획을 확실하게 해야하는ㄴ데요..이번 주까지 열심히 고민을 해볼게요. 이제 PM day가 2달 정도 남았어요. 그때까지 잘 하기위해 화이팅~!! CHAPTER 2. 문제 정의와 리서치 (2) 1. 경쟁사 분석: 시장은 경쟁 구도를 파악하고 경쟁 우위를 확보하기 위해서는 경쟁사 분석을 수행해야한다. 단순 기능 벤치마킹을 넘어서, 수익 구조나 마케탕 전략 등 서비스의 다양한 특성을 면밀하게 살펴보는 과정이다. 1-1. 경쟁 유형: 모든 경쟁사 분석 x, 분석의 목적과 기획의 의도에 적합한 경쟁사 선별이 필요직접 경쟁사 : 동일한 문제애 대해 유사한 해결책을 제공하는 제품▪️ 카카오뱅크 VS 케이뱅크 → 동일한 인..

UMC 10기 2026.03.28

[UMC] CHAPTER 1. 문제 정의와 리서치 (1)

안녕하세요이번에는 UMC 10기 plan으로 활동하게 되었습니다.7,8기때 하고 오랜만에 하는데요그떄는 iOS로 하다가 Plan 하려니까 쉽게 느껴지는 기분,,,ㅎㅎ오랜만에 면접도 보고 떨렸답니당 10주차 동안 화이팅 해보아요!! 이번 1주차는 1. 문제 정의와 리서치 (1)에 대해서 학습해 보았습니다. 더보기 목차① [문제 정의] 1-1. [문제 탐색] 1-2. [문제 분석] 1-3. [초기 가설 수립] ② [시장 분석] 2-1. [분석 항목] 2-2. [추천 플랫폼]CHAPTER 1. 문제 정의와 리서치 (1) 1. 문제 정의: 서비스 기획은 문제를 정의하는 것에서 시작하며 이것이 서비스 전반의 목표와 방향성 결정 문제 정확하게 정의사용자의 실제..

UMC 10기 2026.03.23

[선형대수] 2-5. 부분공간의 기저와 차원

고려대학교 주재걸 교수님의 부스트코스 "인공지능을 위한 선형대수"를 공부한 내용입니다.이번 차시에는 부분공간의 기저와 차원 강의를 듣고 작성했습니다. 부분공간의 기저와 차원1. 부분공간(Subspace): 선형결합에 대해 닫혀 있는 벡터 집합: 벡터들을 계속 선형결합해도 그 공간을 벗어나지 않는 공간 u1,u2∈H임의의 스칼라 c,d를 만족하면 부분공간 Span은 항상 부분공간이다왜냐하면 span 자체가 선형결합으로 만들어진 집합이기 때문이다. 2. 기저(Basis): 특정 부분공간을 표현하기 위해 필요한 최소한의 벡터 집합 조건Fully spans: 공간을 모두 생성 (span)Linearly independent: 서로 선형독립 (중복 없음)예시v3=2v1+3v2 즉 v3v3는 이미 만들어지는 벡..

선형대수 2026.03.23

[선형대수] 2-4. 선형시스템 및 선형변환

고려대학교 주재걸 교수님의 부스트코스 "인공지능을 위한 선형대수"를 공부한 내용입니다.이번 차시에는 선형시스템 및 선형변환 강의를 듣고 작성했습니다. 선형시스템 및 선형변환1. 선형독립(Linear Independence) vs 선형의존(Linear dependence)선형독립(practical defriton) p개의 백터들을 하나씩 늘릴 때 그 백터가 재료백터의 span 안에 들어오지 못하는 경우(formal defaiten) 벡터공간의 부분집합에서, 어떤 벡터도 나머지 벡터들의 선형결합으로 표현될 수 없을 때선형의존(practicaldefriton)(formal defaiten) 백터 집합이 서로 ‘독립’하지 못해, 어떤 벡터가 다른 벡터들의 선형 조합으로 표현될 수 있는 상태 선형 독립일 경우𝑥..

선형대수 2026.03.23

[선형대수] 2-3. 선형결합(Linear Combinations)

고려대학교 주재걸 교수님의 부스트코스 "인공지능을 위한 선형대수"를 공부한 내용입니다.이번 차시에는 선형결합 강의를 듣고 작성했습니다. 선형결합(Linear Combinations) 1. 선형결합Linear Combinations: 여러 벡터가 있을 때, 각각에 숫자(계수)를 곱해서 더한 것 c: 스칼라 (가중치)v: 벡터 => 즉 쉽게 말하면 “재료 벡터들을 섞어서 새로운 벡터를 만드는 것” 이제 식으로 보자백터방정식 𝐴𝐱 = 𝐛 여기서 x1a1+x2a2+x3a3=b는 𝐴𝐱 = 𝐛를 나열해서 풀어 쓴 것이다. 즉, b는 A의 열벡터들의 선형결합이다. 2. span: 재료 벡터들로 만들 수 있는 모든 선형결합의 집합 ⭐ 해가 존재하는 조건 ⭐Ax=b 이 식이 풀린다는 건 무슨 뜻..

선형대수 2026.03.23