딥러닝 37

[SK캠프] 15주차 WIL 250324_250330 (3차 단위 프로젝트 종료)

250324 ~ 250330 SK캠프 9기 15주 차 회고 일지한 주 동안...이미지 딥러닝 응용 - Style Transfer Learning, GAN3차 단위 팀프로젝트KPT Keep프롬프트 엔지니어링으로도 큰 결과로 나타날 수 있다.​감기에 정신이 없다. 감기에, 어려운 모델학습 및 파인튜닝에 정신이 도무지 집중하기 힘들었다. 프롬프트엔지니어링을 하며 보다 더 좋은 답변이 나오게 했다. 사용자 입력에 적합한 답변을 불러오고 원하는 대화 형식으로 불러오게 말이다.​ Problem파인튜닝이 어렵다.​파인튜닝이 아직 어렵다. 파인튜닝을 위해 데이터를 따로 만들어야하고, 적합한 점수를 내기까지 계속해서 파인튜닝.그리고 우리 학원의 노트북은 GPU가 없어서... 런팟을 이용하는데... 지원비가 낮아,,,,,..

이미지 딥러닝 응용 - Style Transfer Learning, GAN 알아보자.

창의성의 새로운 지평   오늘은 Style Transfer와 GAN 알아보자.오늘의 배움이미지 딥러닝 기술Style Transfer 학습GAN(생성적 적대 신경망) 이해1. Style Transfer  정의: 한 이미지의 콘텐츠와 다른 이미지의 스타일을 결합하여 새로운 이미지를 생성하는 딥러닝 기법한 줄 요약: 사진을 예술 작품으로 변환하는 AI의 마법 같은 기술특징:콘텐츠와 스타일 분리CNN 기반 Feature Map 활용손실 함수를 통한 이미지 생성필요성:예술적 표현의 확장창의적 디자인 지원시각적 경험의 혁신장점:빠른 이미지 스타일 변환다양한 예술적 표현고품질 이미지 생성단점:고성능 컴퓨팅 리소스 필요계산 시간 긴 문제완벽한 스타일 전이의 어려움예시:셀카를 고흐, 모네 스타일로 변환풍경 사진을 수채화..

Develop/AI 2025.03.25

합성곱(CNN) 신경망 알아보자.

이미지 인식의 핵심 알고리즘   오늘은 합성곱(CNN) 신경망 알아보자.오늘의 배움CNN의 개념과 구조CNN의 순전파 과정필터 & 특징 맵, 패딩 & 스트라이드, 풀링 레이어(최대, 최소, 평균, 글로벌) 01. 합성곱 신경망 (Convolutional Neural Network, CNN)정의: 합성곱 연산을 사용하여 이미지의 공간적 특징을 추출하고 분석하는 딥러닝 신경망.한 줄 요약: 이미지 처리에서 주변 픽셀과의 가중합을 계산하여 특징을 추출하는 연산 특징:이미지의 지역적 특징을 학습하여 효율적인 패턴 분석 가능층이 깊어질수록 추상적인 특징을 학습할 수 있음완전연결 신경망보다 연산량이 적고 효율적필요성:전통적인 방법보다 더 정밀한 이미지 분석 가능자동으로 유용한 특징을 추출하여 성능 향상장점/단점:장..

Develop/AI 2025.03.22

파인튜닝 - PEFT를 알아보자.

PEFT로 AI 모델 효율적으로 학습하기   오늘은 PEFT 알아보자.오늘의 배움파라미터 효율적 미세조정(PEFT) 개념LoRA, Q-LoRA, DoRA 기법Soft Prompts 기법1. PEFT (Parameter Efficient Fine-Tuning) 정의: 모델 전체를 재학습하지 않고, 일부 파라미터만 조정하여 학습 비용을 줄이는 방법한 줄 요약: 대규모 AI 모델을 적은 자원으로 특정 작업에 맞게 효율적으로 조정하는 기술특징:전체 모델 중 일부 파라미터만 업데이트메모리와 계산 비용 대폭 감소기존 모델의 지식 유지하며 새로운 작업 수행 가능필요성:대규모 모델 전체 재학습 시 막대한 자원 소요제한된 하드웨어로 최신 모델 활용 필요다양한 도메인별 맞춤형 모델 구축 요구장점/단점:장점: 학습 비용 절..

Develop/AI 2025.03.22

[SK캠프] 11주차 WIL 250224_250302 (자연어 처리)

250224 ~ 250302 SK캠프 9기 11주 차 회고 일지 내용금주 주요 성과자연어 처리를 위한 딥러닝 기술보완해야할 점자연어 처리 요약 정리한 주 동안..자연어 딥러닝 기초 - GRU자연어 딥러닝 기초 - 텍스트 분류자연어 딥러닝 기초 - 언어 모델링자연어 딥러닝 응용 - seq2seqKPT Keep일단 따라가보자.​이론과 실습을 함께하며 개념을 명확히 이해하려고 노력한다. 집에서 복습하면서 요약정리하는게 조금이나마 도움이 되길 바라본다... LLM을 드디어 하고 있다. MLDL보단 개념을 생각하는게 보다 흥미롭긴 하나 어려운건 그대로 인 것 같다 ㅎㅎ... ​ Problem많은 개념들이 머릿속에 입력되지 않았다.​아무래도 짧은 시간에 많은 모델의 개념을 학습하다보니 각 모델의 세부 구현에 대한 ..

ollama 사용 설정

ollama 사용 설정   오늘은 ollama 사용 설정 알아보자.오늘의 배움ollama 사용 설정1. A40으로 pod 생성2. apt 업데이트apt updateapt install lshw 3. Ollama 설치(curl -fsSL https://ollama.com/install.sh | sh && ollama serve > ollama.log 2>&1) & 4. 모델 다운로드 또는 실행ollama pull [model name]# ollama pull llama3orollama run [model name]# ollama run llama3  EEVE Korean 10.8B 모델 사용 설정 1. Hugging Face CLI를 설치pip install --user huggingface-hub 2. ..

Develop/AI 2025.03.15

LLM 주요 파라미터 및 적용에 대해 알아보자.

효과적인 활용법   오늘은 0000 알아보자.오늘의 배움LLM 주요 파라미터LLM 활용 방식LLM의 한계 및 해결 방법1. LLM 주요 파라미터정의: LLM의 출력을 조정하는 다양한 설정 값으로, 생성된 응답의 다양성, 창의성, 길이 등을 제어한다.한 줄 요약: 파라미터를 조정하면 원하는 스타일과 품질의 출력을 얻을 수 있다.특징:텍스트 생성 과정에 직접적인 영향을 준다.특정한 값을 설정하면 결과의 일관성을 높이거나 창의성을 극대화할 수 있다.필요성: 모델의 활용도를 극대화하고, 사용 목적에 맞는 결과를 얻기 위해 필요하다.장점/단점:장점: 원하는 스타일에 맞춘 조정 가능단점: 적절한 값을 찾는 데 실험이 필요예시:Temperature 값이 낮으면 정확하고 일관된 응답을, 높이면 창의적인 응답을 얻을 수..

Develop/AI 2025.03.15

LLM 개요를 알아보자

인공지능과 대화하는 시대의 핵심기술   오늘은 LLM(Large Language Model) 알아보자.오늘의 배움LLM의 개념과 역사적 발전LLM의 작동원리와 학습방식LLM의 종류와 활용사례1. LLM이란?정의: 대규모 데이터를 기반으로 학습된 초거대 언어 모델로, 자연어 생성, 번역, 요약 등 다양한 언어 관련 작업을 수행할 수 있는 딥러닝 모델이다.한 줄 요약: 방대한 텍스트 데이터로 학습하여 인간과 유사한 언어를 이해하고 생성할 수 있는 AI 모델이다.특징:수천억 개의 파라미터를 가진 초대형 모델이다.자기지도학습(Self-supervised learning) 방식으로 학습한다.다양한 언어 관련 작업을 단일 모델로 처리할 수 있다.별도의 학습 없이도 다양한 과제를 수행할 수 있는 인컨텍스트 러닝(In..

Develop/AI 2025.03.15

전이학습을 알아보자.

언어 모델의 진화와 혁신   오늘은 자연어처리의 전이학습에 대해 알아보자.오늘의 배움자연어처리의 전이학습 개념문맥 기반 임베딩의 발전과정Transformer 아키텍처의 핵심 구성요소1. 전이학습이란? 정의: 하나의 문제를 해결하기 위해 학습한 지식을 다른 관련 문제 해결에 적용하는 기계학습 방법이다.한 줄 요약: "배운 지식을 새로운 과제에 재활용하는 효율적인 학습 방식이다."특징:사전 훈련된 모델의 가중치를 활용한다소량의 데이터로도 좋은 성능을 낸다학습 시간과 자원을 절약한다필요성: 모든 NLP 작업마다 처음부터 학습하기에는 비용과 시간이 많이 소요된다.장점/단점:장점: 학습 효율성 증가, 적은 데이터로도 높은 성능단점: 도메인 차이에 따른 성능 저하 가능성, 모델 크기가 커질수록 자원 소모 증가예시:..

Develop/AI 2025.03.15

신경망 기계번역-attention을 알아보자.

집중하는 인공지능의 비밀   오늘은 자연어처리의 '어텐션 메커니즘'에 대해 알아보자.오늘의 배움어텐션 메커니즘의 기본 개념기존 RNN 모델의 한계점어텐션의 작동 원리와 계산 방법트랜스포머 모델에서의 어텐션 종류1. 어텐션 메커니즘정의: 어텐션은 입력 시퀀스의 중요한 부분에 가중치를 부여해 번역 품질을 향상시키는 딥러닝 기법이다.한 줄 요약: 인공지능이 사람처럼 중요한 정보에 '집중'하여 더 효과적으로 언어를 이해하고 번역하는 기술이다.특징:입력 시퀀스의 모든 단어를 동시에 고려한다출력의 각 단계마다 입력의 어떤 부분이 중요한지 동적으로 결정한다가중치(Attention 점수)를 통해 입력의 중요도를 계산한다필요성:RNN 기반 모델의 정보 손실 문제 해결긴 문장 처리 시 초반 정보가 소실되는 현상 개선문맥을..

Develop/AI 2025.03.09
728x90