Python 192

[SK캠프] 14주차 WIL 250317_250323 (파인튜닝, CNN)

250317 ~ 250323 SK캠프 9기 14주 차 회고 일지 내용금주 주요 성과- 파인튜닝 학습 및 실습- CNN 학습 및 실습보완해야할 점병가로 인한 학습 복습한 주 동안...파인튜닝 - PEFT파인튜닝 - RLHF파인튜닝 - DPOCNNCNN 주요 모델KPT Keep정리하고 회고하는 습관 유지​파인튜닝의 다양한 기법을 학습해 AI모델 최적화에 대한 이해도를 높이는 시간을 가졌다. 그리고 자연어 이미지 모델 처리하는 CNN을 배워 이미지를 처리하는 재밌는 실습시간들도 가졌다.  팀플이 시작되고 처음에 골랐던 주제로 미니테스트를 했다가 안되겠다는 빠른 선택과 결단을 내린 후 빠르게 2번째 주제를 골라 다시 팀플을 시작했다. 테스트를 한 점, 빠른 결단력을 내린 점, 끝까지 열정과 끈기로 이뤄내고 있는..

합성곱(CNN) 신경망 주요 모델 알아보자.

합성곱(CNN) 신경망 주요 모델   오늘은 합성곱(CNN) 신경망 주요 모델 알아보자.오늘의 배움LeNetAlexNetVGGNet모델 비교와 선택 기준ResNet현대 CNN 모델1. 주요 CNN 모델1-1. LeNetLeNet-5의 구조입력층: 32x32 크기의 흑백 이미지합성곱 층 1:필터 수: 6개필터 크기: 5x5활성화 함수: tanh서브샘플링(풀링) 층 1:방식: 평균 풀링크기: 2x2합성곱 층 2:필터 수: 16개필터 크기: 5x5활성화 함수: tanh서브샘플링(풀링) 층 2:방식: 평균 풀링크기: 2x2완전 연결 층 1:뉴런 수: 120개활성화 함수: tanh완전 연결 층 2:뉴런 수: 84개활성화 함수: tanh출력층:뉴런 수: 10개 (클래스 수)활성화 함수: SoftmaxLeNet 구현..

Develop/AI 2025.03.23

합성곱(CNN) 신경망 알아보자.

이미지 인식의 핵심 알고리즘   오늘은 합성곱(CNN) 신경망 알아보자.오늘의 배움CNN의 개념과 구조CNN의 순전파 과정필터 & 특징 맵, 패딩 & 스트라이드, 풀링 레이어(최대, 최소, 평균, 글로벌) 01. 합성곱 신경망 (Convolutional Neural Network, CNN)정의: 합성곱 연산을 사용하여 이미지의 공간적 특징을 추출하고 분석하는 딥러닝 신경망.한 줄 요약: 이미지 처리에서 주변 픽셀과의 가중합을 계산하여 특징을 추출하는 연산 특징:이미지의 지역적 특징을 학습하여 효율적인 패턴 분석 가능층이 깊어질수록 추상적인 특징을 학습할 수 있음완전연결 신경망보다 연산량이 적고 효율적필요성:전통적인 방법보다 더 정밀한 이미지 분석 가능자동으로 유용한 특징을 추출하여 성능 향상장점/단점:장..

Develop/AI 2025.03.22

DPO를 알아보자.

강화 학습을 넘어 더 효율적인 최적화   오늘은 DPO 알아보자.오늘의 배움DPO 개념과 정의RLHF와의 차이점 및 비교DPO 학습 과정 및 실제 적용 사례1. DPO (Direct Preference Optimization)정의: DPO(Direct Preference Optimization)는 보상 모델을 따로 학습할 필요 없이, 사람의 선호 데이터를 직접 최적화하는 방식으로 LLM을 조정하는 학습 방법이다.한 줄 요약: RLHF의 강화 학습 단계를 생략하고, 선호 데이터를 활용해 모델을 직접 최적화하는 방법DPO 학습 과정1단계: 선호 데이터(Preference Data) 수집2단계: 선호 데이터 기반으로 직접 모델 최적화3단계: 보상 모델 없이 최적화된 모델 평가특징:보상 모델 없이도 효과적인 모..

Develop/AI 2025.03.22

RLHF을 알아보자.

사람의 피드백을 활용한 강화 학습   오늘은 RLHF 알아보자.오늘의 배움RLHF 개념과 정의RLHF 학습 과정RLHF와 InstructGPT/ChatGPT의 관계1. RLHF (Reinforcement Learning from Human Feedback) 정의: RLHF(Reinforcement Learning from Human Feedback)는 사람의 피드백을 보상 신호로 활용하여 AI 모델을 최적화하는 강화 학습 기법이다.한 줄 요약: AI 모델이 사람이 선호하는 답변을 학습하도록 강화 학습을 적용하는 기법이다.특징:AI의 출력을 사람이 직접 평가하여 보상 모델을 만든다.강화 학습을 활용해 보상 모델을 최적화한다.모델이 더 자연스럽고 유용한 답변을 생성하도록 유도한다.필요성: 기존 AI 모델은 ..

Develop/AI 2025.03.22

파인튜닝 - PEFT를 알아보자.

PEFT로 AI 모델 효율적으로 학습하기   오늘은 PEFT 알아보자.오늘의 배움파라미터 효율적 미세조정(PEFT) 개념LoRA, Q-LoRA, DoRA 기법Soft Prompts 기법1. PEFT (Parameter Efficient Fine-Tuning) 정의: 모델 전체를 재학습하지 않고, 일부 파라미터만 조정하여 학습 비용을 줄이는 방법한 줄 요약: 대규모 AI 모델을 적은 자원으로 특정 작업에 맞게 효율적으로 조정하는 기술특징:전체 모델 중 일부 파라미터만 업데이트메모리와 계산 비용 대폭 감소기존 모델의 지식 유지하며 새로운 작업 수행 가능필요성:대규모 모델 전체 재학습 시 막대한 자원 소요제한된 하드웨어로 최신 모델 활용 필요다양한 도메인별 맞춤형 모델 구축 요구장점/단점:장점: 학습 비용 절..

Develop/AI 2025.03.22

[9237] 이장님 초대

문제백준 문제농부 상근이는 마당에 심기 위한 나무 묘목 n개를 구입했다. 묘목 하나를 심는데 걸리는 시간은 1일이고, 상근이는 각 묘목이 다 자라는데 며칠이 걸리는지 정확하게 알고 있다.상근이는 마을 이장님을 초대해 자신이 심은 나무를 자랑하려고 한다. 이장님을 실망시키면 안되기 때문에, 모든 나무가 완전히 자란 이후에 이장님을 초대하려고 한다. 즉, 마지막 나무가 다 자란 다음날 이장님을 초대할 것이다.상근이는 나무를 심는 순서를 신중하게 골라 이장님을 최대한 빨리 초대하려고 한다. 이장님을 며칠에 초대할 수 있을까?입력입력은 두 줄로 이루어져 있다. 첫째 줄에는 묘목의 수 N (1 ≤ N ≤ 100,000)이 주어진다. 둘째 줄에는 각 나무가 다 자라는데 며칠이 걸리는지를 나타낸 ti가 주어진다. (..

TIL/Baekjoon 2025.03.19

[11047] 동전 0

문제백준 문제준규가 가지고 있는 동전은 총 N종류이고, 각각의 동전을 매우 많이 가지고 있다.동전을 적절히 사용해서 그 가치의 합을 K로 만들려고 한다. 이때 필요한 동전 개수의 최솟값을 구하는 프로그램을 작성하시오.입력첫째 줄에 N과 K가 주어진다. (1 ≤ N ≤ 10, 1 ≤ K ≤ 100,000,000)둘째 줄부터 N개의 줄에 동전의 가치 Ai가 오름차순으로 주어진다. (1 ≤ Ai ≤ 1,000,000, A1 = 1, i ≥ 2인 경우에 Ai는 Ai-1의 배수)출력첫째 줄에 K원을 만드는데 필요한 동전 개수의 최솟값을 출력한다.예제 입력 1 10 4200151050100500100050001000050000예제 출력 1 6예제 입력 2 10 479015105010050010005000100005..

TIL/Baekjoon 2025.03.19

[14916] 거스름돈

문제백준 문제춘향이는 편의점 카운터에서 일한다.손님이 2원짜리와 5원짜리로만 거스름돈을 달라고 한다. 2원짜리 동전과 5원짜리 동전은 무한정 많이 가지고 있다. 동전의 개수가 최소가 되도록 거슬러 주어야 한다. 거스름돈이 n인 경우, 최소 동전의 개수가 몇 개인지 알려주는 프로그램을 작성하시오.예를 들어, 거스름돈이 15원이면 5원짜리 3개를, 거스름돈이 14원이면 5원짜리 2개와 2원짜리 2개로 총 4개를, 거스름돈이 13원이면 5원짜리 1개와 2원짜리 4개로 총 5개를 주어야 동전의 개수가 최소가 된다.입력첫째 줄에 거스름돈 액수 n(1 ≤ n ≤ 100,000)이 주어진다.출력거스름돈 동전의 최소 개수를 출력한다. 만약 거슬러 줄 수 없으면 -1을 출력한다.예제 입력 1 13예제 출력 1 5예제 입..

TIL/Baekjoon 2025.03.19

[SK캠프] 13주차 WIL 250310_250316 (프롬프트 엔지니어링)

250310 ~ 250316 SK캠프 9기 13주 차 회고 일지 내용금주 주요 성과- 벡터 데이터베이스, 프롬프트 엔지니어링보완해야할 점- 응용 기술 학습한 주 동안...LLM 주요 파라미터벡터 데이터베이스프롬프트 엔지니어링 응용 - langchain 프롬프트 엔지니어링 응용 - RAG 프롬프트 엔지니어링 응용 - CoT파인튜닝 KPT Keep프롬프트 엔지니어링을 통해 결과를 개선할 수 있다.​이번 주는 LLM의 주요 파라미터, 벡터 데이터베이스, 프롬프트 엔지니어링, RAG, CoT, 그리고 파인튜닝까지 다양한 주제를 학습하였다. 특히 LLM을 실제 프로젝트에 적용할 때 중요한 요소들을 깊이 이해하고 실험해볼 수 있었던 점이 좋았다. 벡터 데이터베이스를 활용한 문서 검색 시스템을 직접 구현해보면서 의미..

728x90