데이콘 - 도배 하자 질의 응답 처리 후기
·
딥러닝/LLM
본 글은 데이콘에서 주관한 도배 하자 질의응답 처리 대회 참여 후기이다. 팀원 1명을 포함해 2명이서 대회에 참가했고, 대회 시작은 1월부터였지만, 제대로 참여한 건 3월 쯔음부터 시작한 거 같다.     대회 개요 해당 대회는 한솔데코에서 주최한 대회로, NLP(자연어 처리) 기반의 QA (질문-응답) 시스템을 통해 도배하자와 관련된 깊이 있는 질의응답 처리 능력을 갖춘 AI 모델 개발을 목표로 하고 있다. 아래 사이트에서 활용하는 LLM을 개발하고자 하는 것 같았다.소소하자 lab Chat UI Screen마감재 하자 (벽지, 마루, 타일, 시트지!!) 관련해서 뭐든지 물어보세요!sosohajalab.pages.dev   데이터 train데이터와 test 데이터를 살펴보면 train 데이터는 데이터 ..
Kaggle - LLM Science Exam 후기
·
딥러닝/LLM
본 글은 Kaggle - LLM Science Exam 후기 글입니다.  대회 개요 Kaggle - LLM Science Exam은  약 3개월(2023.07.12 ~ 2023.10.11 )의 기간 동안 진행된 QA task의 대회이다.질문(prompt)과 객관식 답(A~E)이 input으로 들어가고 질문에 대한 적절한 답을 추론하는 모델을 개발하는 것이 목적이다.      평가 지표 평가 지표는 MAP@3 이다. 평가 지표에 대해 간략히 설명하면 모델은 정답일 것 같은 답을 확신이 높은 순서로 3개 출력한다.  예를 들어 1번 문제에 대해 A, B, C를 순서대로 답변으로 출력하였고,  정답이 A 면 해당 문제에 대한 점수는 1, 정답이 B라면 해당 문제에 대한 점수는 1/2 이런 식으로 점수가 계산된..
LLM과 LangChain
·
딥러닝/LLM
LLM(Large Language Model)  LLM  즉, 대규모 언어 모델은 사람들끼리 대화하듯 자연스러운 답변을 AI가 생성할 수 있도록 방대한 양의 텍스트 데이터에 대해 훈련된 AI 모델이다. 방대한 양의 데이터를 제대로 학습하기 위해 모델의 크기가 커질 수밖에 없으며 대략적으로 LLM 모델의 파라미터 개수는 100억 개를 넘는다.  일반적인 AI 모델의 파라미터 개수가 수백만~수억 개인 것에 비하면 상당히 많은 것을 알 수 있다.  파라미터 갯수가 중요한 이유는 파라미터 갯수가 많을수록 AI 모델을 학습하는데 오랜 시간이 소요되기 때문이다. 당연히 모델을 최적화하는 것도 오랜 시간이 걸리며  고사양의 GPU가 요구된다. 일반인들이 쉽게 LLM 모델을 학습하지 못하는 이유가 그것 때문이다.   ..
ariz1623
'딥러닝/LLM' 카테고리의 글 목록 (3 Page)