전체 글 230

자연어 이미지 멀티모달 - 이미지 생성, Image Captioning 알아보자.

이미지와 언어의 경계를 허물다   오늘은 자연어 이미지 멀티모달 - 이미지 생성, Image Captioning 알아보자.오늘의 배움멀티모달 학습의 기본 개념과 원리이미지 캡셔닝(Image Captioning)의 작동 방식텍스트-이미지 생성 기술과 대표 모델들01. 자연어-이미지 멀티모달 정의: 텍스트와 이미지라는 서로 다른 형태(모달리티)의 데이터를 함께 처리하고 이해하는 AI 학습 방법한 줄 요약: "보는 것과 읽는 것을 동시에 이해하고 연결하는 AI의 능력"특징:단일 모달리티보다 풍부한 정보 처리 가능상호보완적 학습 효과인간의 다감각적 인지 능력에 더 가까운 접근필요성:실제 세계의 정보는 대부분 여러 형태로 존재이미지만으로 설명하기 어려운 맥락 정보 보완텍스트만으로 표현하기 어려운 시각적 요소 보완..

Develop/AI 2025.04.10

이미지 딥러닝 응용 - Style Transfer Learning, GAN 알아보자.

창의성의 새로운 지평   오늘은 Style Transfer와 GAN 알아보자.오늘의 배움이미지 딥러닝 기술Style Transfer 학습GAN(생성적 적대 신경망) 이해1. Style Transfer  정의: 한 이미지의 콘텐츠와 다른 이미지의 스타일을 결합하여 새로운 이미지를 생성하는 딥러닝 기법한 줄 요약: 사진을 예술 작품으로 변환하는 AI의 마법 같은 기술특징:콘텐츠와 스타일 분리CNN 기반 Feature Map 활용손실 함수를 통한 이미지 생성필요성:예술적 표현의 확장창의적 디자인 지원시각적 경험의 혁신장점:빠른 이미지 스타일 변환다양한 예술적 표현고품질 이미지 생성단점:고성능 컴퓨팅 리소스 필요계산 시간 긴 문제완벽한 스타일 전이의 어려움예시:셀카를 고흐, 모네 스타일로 변환풍경 사진을 수채화..

Develop/AI 2025.03.25

[16198] 에너지 모으기

문제백준 문제 N개의 에너지 구슬이 일렬로 놓여져 있고, 에너지 구슬을 이용해서 에너지를 모으려고 한다.i번째 에너지 구슬의 무게는 Wi이고, 에너지를 모으는 방법은 다음과 같으며, 반복해서 사용할 수 있다.에너지 구슬 하나를 고른다. 고른 에너지 구슬의 번호를 x라고 한다. 단, 첫 번째와 마지막 에너지 구슬은 고를 수 없다.x번째 에너지 구슬을 제거한다.Wx-1 × Wx+1의 에너지를 모을 수 있다.N을 1 감소시키고, 에너지 구슬을 1번부터 N번까지로 다시 번호를 매긴다. 번호는 첫 구슬이 1번, 다음 구슬이 2번, ... 과 같이 매겨야 한다.N과 에너지 구슬의 무게가 주어졌을 때, 모을 수 있는 에너지 양의 최댓값을 구하는 프로그램을 작성하시오.입력첫째 줄에 에너지 구슬의 개수 N(3 ≤ N ≤..

TIL/Baekjoon 2025.03.23

[15650] N과 M(2)

문제백준 문제자연수 N과 M이 주어졌을 때, 아래 조건을 만족하는 길이가 M인 수열을 모두 구하는 프로그램을 작성하시오.1부터 N까지 자연수 중에서 중복 없이 M개를 고른 수열고른 수열은 오름차순이어야 한다.입력첫째 줄에 자연수 N과 M이 주어진다. (1 ≤ M ≤ N ≤ 8)출력한 줄에 하나씩 문제의 조건을 만족하는 수열을 출력한다. 중복되는 수열을 여러 번 출력하면 안되며, 각 수열은 공백으로 구분해서 출력해야 한다.수열은 사전 순으로 증가하는 순서로 출력해야 한다.예제 입력 1 3 1예제 출력 1 123예제 입력 2 4 2예제 출력 2 1 21 31 42 32 43 4예제 입력 3 4 4예제 출력 3 1 2 3 4풀이import sysdef backtrack(n, m, start, sequence)..

TIL/Baekjoon 2025.03.23

[15649] N과 M(1)

문제백준 문제 자연수 N과 M이 주어졌을 때, 아래 조건을 만족하는 길이가 M인 수열을 모두 구하는 프로그램을 작성하시오.1부터 N까지 자연수 중에서 중복 없이 M개를 고른 수열입력첫째 줄에 자연수 N과 M이 주어진다. (1 ≤ M ≤ N ≤ 8)출력한 줄에 하나씩 문제의 조건을 만족하는 수열을 출력한다. 중복되는 수열을 여러 번 출력하면 안되며, 각 수열은 공백으로 구분해서 출력해야 한다.수열은 사전 순으로 증가하는 순서로 출력해야 한다.예제 입력 1 3 1예제 출력 1 123예제 입력 2 4 2예제 출력 2 1 21 31 42 12 32 43 13 23 44 14 24 3 예제 입력 3 4 4예제 출력 3 1 2 3 41 2 4 31 3 2 41 3 4 21 4 2 31 4 3 22 1 3 42 1 ..

TIL/Baekjoon 2025.03.23

[SK캠프] 14주차 WIL 250317_250323 (파인튜닝, CNN)

250317 ~ 250323 SK캠프 9기 14주 차 회고 일지 내용금주 주요 성과- 파인튜닝 학습 및 실습- CNN 학습 및 실습보완해야할 점병가로 인한 학습 복습한 주 동안...파인튜닝 - PEFT파인튜닝 - RLHF파인튜닝 - DPOCNNCNN 주요 모델KPT Keep정리하고 회고하는 습관 유지​파인튜닝의 다양한 기법을 학습해 AI모델 최적화에 대한 이해도를 높이는 시간을 가졌다. 그리고 자연어 이미지 모델 처리하는 CNN을 배워 이미지를 처리하는 재밌는 실습시간들도 가졌다.  팀플이 시작되고 처음에 골랐던 주제로 미니테스트를 했다가 안되겠다는 빠른 선택과 결단을 내린 후 빠르게 2번째 주제를 골라 다시 팀플을 시작했다. 테스트를 한 점, 빠른 결단력을 내린 점, 끝까지 열정과 끈기로 이뤄내고 있는..

합성곱(CNN) 신경망 주요 모델 알아보자.

합성곱(CNN) 신경망 주요 모델   오늘은 합성곱(CNN) 신경망 주요 모델 알아보자.오늘의 배움LeNetAlexNetVGGNet모델 비교와 선택 기준ResNet현대 CNN 모델1. 주요 CNN 모델1-1. LeNetLeNet-5의 구조입력층: 32x32 크기의 흑백 이미지합성곱 층 1:필터 수: 6개필터 크기: 5x5활성화 함수: tanh서브샘플링(풀링) 층 1:방식: 평균 풀링크기: 2x2합성곱 층 2:필터 수: 16개필터 크기: 5x5활성화 함수: tanh서브샘플링(풀링) 층 2:방식: 평균 풀링크기: 2x2완전 연결 층 1:뉴런 수: 120개활성화 함수: tanh완전 연결 층 2:뉴런 수: 84개활성화 함수: tanh출력층:뉴런 수: 10개 (클래스 수)활성화 함수: SoftmaxLeNet 구현..

Develop/AI 2025.03.23

합성곱(CNN) 신경망 알아보자.

이미지 인식의 핵심 알고리즘   오늘은 합성곱(CNN) 신경망 알아보자.오늘의 배움CNN의 개념과 구조CNN의 순전파 과정필터 & 특징 맵, 패딩 & 스트라이드, 풀링 레이어(최대, 최소, 평균, 글로벌) 01. 합성곱 신경망 (Convolutional Neural Network, CNN)정의: 합성곱 연산을 사용하여 이미지의 공간적 특징을 추출하고 분석하는 딥러닝 신경망.한 줄 요약: 이미지 처리에서 주변 픽셀과의 가중합을 계산하여 특징을 추출하는 연산 특징:이미지의 지역적 특징을 학습하여 효율적인 패턴 분석 가능층이 깊어질수록 추상적인 특징을 학습할 수 있음완전연결 신경망보다 연산량이 적고 효율적필요성:전통적인 방법보다 더 정밀한 이미지 분석 가능자동으로 유용한 특징을 추출하여 성능 향상장점/단점:장..

Develop/AI 2025.03.22

DPO를 알아보자.

강화 학습을 넘어 더 효율적인 최적화   오늘은 DPO 알아보자.오늘의 배움DPO 개념과 정의RLHF와의 차이점 및 비교DPO 학습 과정 및 실제 적용 사례1. DPO (Direct Preference Optimization)정의: DPO(Direct Preference Optimization)는 보상 모델을 따로 학습할 필요 없이, 사람의 선호 데이터를 직접 최적화하는 방식으로 LLM을 조정하는 학습 방법이다.한 줄 요약: RLHF의 강화 학습 단계를 생략하고, 선호 데이터를 활용해 모델을 직접 최적화하는 방법DPO 학습 과정1단계: 선호 데이터(Preference Data) 수집2단계: 선호 데이터 기반으로 직접 모델 최적화3단계: 보상 모델 없이 최적화된 모델 평가특징:보상 모델 없이도 효과적인 모..

Develop/AI 2025.03.22

RLHF을 알아보자.

사람의 피드백을 활용한 강화 학습   오늘은 RLHF 알아보자.오늘의 배움RLHF 개념과 정의RLHF 학습 과정RLHF와 InstructGPT/ChatGPT의 관계1. RLHF (Reinforcement Learning from Human Feedback) 정의: RLHF(Reinforcement Learning from Human Feedback)는 사람의 피드백을 보상 신호로 활용하여 AI 모델을 최적화하는 강화 학습 기법이다.한 줄 요약: AI 모델이 사람이 선호하는 답변을 학습하도록 강화 학습을 적용하는 기법이다.특징:AI의 출력을 사람이 직접 평가하여 보상 모델을 만든다.강화 학습을 활용해 보상 모델을 최적화한다.모델이 더 자연스럽고 유용한 답변을 생성하도록 유도한다.필요성: 기존 AI 모델은 ..

Develop/AI 2025.03.22
728x90