[python] 코드트리 - 꼬리잡기놀이
·
파이썬/코드트리
문제https://www.codetree.ai/training-field/frequent-problems/problems/tail-catch-play 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요.www.codetree.ai n * n 격자에서 꼬리잡기 놀이를 합니다. 입력형식은 아래 그림을 참고바랍니다. 각 팀은 머리사람(맨 앞 사람)과 꼬리사람(맨 뒤 사람)으로 구성되어 있습니다.각 팀은 게임에서 주어진 이동 경로만을 따라 이동하며, 이 경로는 팀별로 겹치지 않도록 보장됩니다.라운드가 진행되면 각 팀은 머리사람을 따라 한 칸씩 이동합니다.라운드마다 공이 특정 경로를 따라 던져지..
[python] 코드 트리 - 예술성
·
파이썬/코드트리
문제https://www.codetree.ai/training-field/frequent-problems/problems/artistry 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요.www.codetree.ai  왼쪽 그림과 같이 배열이 주어진다면 오른쪽 그림처럼 4개의 그룹으로 만들어 질 수 있다. 예술 점수는 모든 그룹 쌍의 조화로움의 합으로 정의한다.그룹 a와 b의 조화로움은 (그룹 a에 속한 칸의 수 + 그룹 b에 속한 칸의 수 ) x 그룹 a를 이루고 있는 숫자 값 x 그룹 b를 이루고 있는 숫자 값 x 그룹 a와 그룹 b가 서로 맞닿아 있는 변의 수G2, G4의 조화로..
[python] 코드 트리 - 술래잡기
·
파이썬/코드트리
문제https://www.codetree.ai/frequent-problems/hide-and-seek/description 코드트리 | 코딩테스트 준비를 위한 알고리즘 정석국가대표가 만든 코딩 공부의 가이드북 코딩 왕초보부터 꿈의 직장 코테 합격까지, 국가대표가 엄선한 커리큘럼으로 준비해보세요.www.codetree.ai 풀이문제에 적힌대로 하나씩 구현해나가면 어렵지 않게 풀수 있는 문제다. 문제에서 술래가 달팽이 회전(토네이도 회전?) 으로 움직이게 되는데, 해당 부분만 신경써서 구현하면 될꺼같다.문제를 읽고 구현해야될 부분을 다음과 같이 정리했다.  1. 도망자의 초기 위치 관련 도망자는 처음 지정된 곳에 서있음. 중앙에서 시작하지 않음 (술래랑 겹치지 않음) 도망자의 종류는 좌우로만 움직이는 유형..
LLM을 활용한 지식 증류: sLLM 성능 최적화 실험
·
딥러닝/LLM
본 글은 유튜브 테디노트에 출연한 이승유 님의 경험 공유와 관련된 영상에 나왔던 내용을 바탕으로 작성된 글입니다.  Open Ko(한국어) LLM 리더보드 최장기간 1위 모델 개발...  서론 대형 언어 모델(LLM)은 다양한 task에서 놀라운 성능을 제공하지만, 이를 실제 서비스나 업무 환경에 도입하기 위해서는 현실적인 제약을 고려해야 합니다.특히, Llama3.1-70B, gemma2-27B와 같이 파라미터수가 많은 모델은 높은 성능을 발휘할 수 있지만, 이를 그대로 활용하려면 대량의 GPU 자원이 필요합니다. 예를 들어, 70B 모델을 활용하려면 최소 2~3개의 80GB vram을가지는 GPU가 필요하며, 학습 과정에서는 그 이상이 요구될 수 있습니다.  따라서 실제 운영을 고려하면 파라미터 수가..
LLM의 양자화가 한국어에 미치는 영향
·
딥러닝/LLM
본 글은 이전 글에서 알아본 How Does Quantization Affect Multilingual LLMs? 논문에서 언급된 LLM 양자화가 라틴 계열 언어(영어, 프랑스어 등) 보다 비 라틴 계열 언어(한국어, 일본어, 중국어 등)에 더 큰 영향을 미친다는 연구 결과를 바탕으로 작성하게 된 글입니다.   실제 LLM 모델을 사용하면서 양자화를 적용하는 경우가 대부분이었고, 어느 정도 성능이 저하되는지 궁금하기도 하여 직접 모델에 양자화를 적용해 보고 생성 결과의 품질에 대해 평가해 보았습니다.  현재 주목받고 있는 모델 중 하나인 gemma2-9b-it 모델을 양자화해보고 한국어에 대해서 얼마나 성능 저하가 일어나는지 알아보겠습니다.     모델 양자화란?  일반적으로 딥러닝 모델은 가중치를 16..
[논문리뷰] How Does Quantization Affect Multilingual LLMs?
·
딥러닝/LLM
본 글은 "How Does Quantization Affect Multilingual LLMs?"라는 논문을 읽고 내용을 리뷰하는 글입니다.    서론 해당 논문의 주 내용은 모델 양자화(Quantization)가 다국어 LLM의 미치는 영향을 분석하는 내용이 주를 이룹니다. 양자화는 모델의 추론 속도를 향상시키고 배포를 용이하게 하기 위해 널리 사용되는 기법입니다. 그러나 대부분의 기존 연구는 영어 작업에 미치는 영향만을 다루고 있으며, 다국어에 미치는 영향에 대한 연구는 거의 없었습니다. 이 논문의 주요 포인트는 다음과 같습니다:  1. 양자화가 다국어 모델에 미치는 영향: 연구는 다국어 LLM에서 양자화가 어떻게 성능에 영향을 미치는지, 특히 다양한 언어와 규모에서의 성능 변화를 분석합니다. 논문에..
ariz1623
'분류 전체보기' 카테고리의 글 목록 (3 Page)