분류 전체보기 250

self-refine Iterative Refinement with Self-Feedback 논문리뷰

25 May 2023 주안점 self-provided feedbackgenerate an initial output using an LLM; then, the same LLM provides feedback for its output and uses it to refine itself, iteratively  until a stopping condition is met. The stopping condition stop(f bt, t) either stops at a specified timestep t, or extracts a stopping indicator (e.g. a scalar stop score) from the feedback. To inform the model about the pre..

프롬프팅 2024.07.14

flashattention v3

flashattention v3 - 2024/ 7/ 11https://pytorch.org/blog/flashattention-3/엔비디아 H100 의 이론적으로 처리가능한 최대 FLOPS 의 75% 달성flashattention v2에 비해 16bit에서 2배 빠름용어정리 - Claude 피셜WGMMAWarp-level General Matrix Multiply Accumulate의 약자입니다.NVIDIA의 최신 GPU 아키텍처에서 도입된행렬 곱셈 연산을 위한 특수 명령어TMA엔비디아 H100 (Hopper 아키텍쳐)의비동기 실행(async)에는 글로벌 메모리와 공유 메모리 간에대용량 데이터를 효율적으로 전송할 수 있는 Tensor 메모리 가속기(TMA) 장치가 포함되어 있음GEMM General Ma..

카테고리 없음 2024.07.12

Internet of Agents 논문 리뷰 - 2024 / 7 / 9

multi agent - part 4IoA(Internet of Agents) - 2024 / 7 / 9 https://arxiv.org/pdf/2407.07061인터넷에 영감을 받아 만든 멀티에이젼트 프레임워크 인터넷의 발전으로 위키피디아, Linux OS 같은 사람간의 협력이 어떤 결과물로 나온것처럼 AI agent를 이와 같은 환경에 둘수 없을까? 1. 제한된 환경(ecosystem)대부분의 프레임워크는 자체 시스템(ecosystem) 내에서 정의된 에이전트만을 고려하기 때문에,다양한 서드파티 agent 의 통합을 차단하고 에이전트 기능의 다양성과 platform의 generality 을 제한할 수 있다 (2) 단일 device 시뮬레이션거의 모든 멀티에이전트 프레임워크는단일 기기에서 다중 에이전트..

카테고리 없음 2024.07.12

induction head

XAI , Interpretable AI1. AI 뿐 아니라 인간의 뉴런도 superposition hypothesis에 기반해 활성화될 것이 아닐까?2. LLM의 In-context learning(프롬프팅)이 가능한 이유3. chatgpt, Claude 의 뉴런서킷을 학습이 아닌 외부에서 직접 조정https://seongland.medium.com 요약 뉴럴넷에서 하나의 기능(feature)이 여러 뉴런에 나뉘어 존재하고 또, 하나의 뉴런이 여러 개의 기능을 담당하는 현상 = superposition hypothesis 여러 뉴런에 여러 기능이 있는 이유?뉴런 개수 > 기능의 개수?->?? (선형 대수의 관점)차원 개수보다 많은 기능이 존재한다는 게 말이 되는가? (e.g xy그래프에는 x와 y 값만..

interpretability 2024.07.11

EVOAGENT: Towards Automatic Multi-AgentGeneration via Evolutionary Algorithms 논문 리뷰 2024/6/2

https://arxiv.org/pdf/2406.14228진화 알고리즘(e.g., 돌연변이, 교차, 선택) + AI agent = ?단일 agent와 인간이 설계한 agent의 능력보다 일관된 성능향상을 보임,특히  logic grid puzzle 에서 100% 정확도진화 알고리즘을 통한 적응성 -> 예상치 못한 task에서의 성능 향상자연의 종처럼 스스로 성장하고 다양화하는 AI 시스템을 만들 수 있을까에 대한 질문각 AI 에이전트를 손수 설계하는 대신, 각각의 전문화된 에이전트 AI 협력자들끼리 번성하는 생태계를 자동으로 생성하는 일종의 진화 과정을 시작할 수 있게 한다면?현재 LLM 기반 멀티 에이전트 시스템의 여러 문제점을 지적한다. 여기에는 agent를 수작업설정 해야하는것(heavily), A..

카테고리 없음 2024.07.10

MultiLoRA 논문 리뷰 (LoRA 와의 차이)

1. introduction스케일링의 증가로 인하로 인한 대규모 모델의 multi-task에서의 능력, grokking등 다양한 능력이 나타나고 있지만 이를 downstream task를 위한 fine tuning 혹은 훈련과정의 비용이 매우 막대하다이를 위한 PEFT 중 LoRA가 널리 사용되지만 이는 단일 task가 아닌 multi-task에서는 약한 모습을 보인다Full 파인튜닝과 LoRA의 가장 큰 차이는 SVD(singular vector decomposition)에 있다.LoRA는 소수의 top singular vector 가 매우 우세한데(dominated) fine-tuning 나머지 가중치도 업데이트하기에 더 democratic하다 이를 보완하기 위해 수평적으로(horizontally) ..

PEFT/LoRA 2024.07.10

mobile agent v2 논문 리뷰(온디바이스 멀티에이젼트)

모바일 디바이스에서의 멀티모달 에이젼트의 적용은 더욱더 주목도가 오르고 있다. 일단 모바일 디바이스에서의 실행은 다단계 순차적의 과정인데(multi-step sequential processing)process 과정의 2가지 과제가 존재한다 1.  지금까지의 과정(operation history)로부터 현재 과정(current task progress)을 이끌어져야(navigate)한다e.g)현재 화면으로부터 instruction이 다 진행될 때까지 일련의 연속된 실행이 수행되야한다2. process 중의 몇몇 실행은 지금까지의 스크린안에(history screen) task와 관련된 정보를 사용해야 할 수도 있다-> 이를 focus content로 정의하고 이 또한 이끌어져야한다. 간단하게 요약하자면 ..

카테고리 없음 2024.07.07

Scaling Synthetic Data Creation with 1,000,000,000 Personas 논문 (합성데이터)

페르소나 hub라는 합성데이터 방법론을 제시한다.간단한 정의 - 웹데이터로부터 10억개의 페르소나를 통해 자동으로 조정된(curated) 모음이 페르소나 hub를 통해 합성데이터 생성시 다양한 시나리오에서 다양한 합성데이터의 생성을 가능하게 한다.또한 이 방법을 통해 생성해낸 수학, 논리적인 추론 문제, instruction 등에 대한 유스케이스를 통해 얼마나 효과적인지에 대한 평가 또한 제공한다. 기본적으로 sampling(llm의 temperature 같은) 없이 합성데이터를 만들 때 프롬프트 한개당  LLM은 하나의 인스턴스만을 생성할수 있다.(애초에 기존의 sampling 같은경우 본질적인 한계로 다양한 데이터를 생성해내지 못한다) 따라서 합성데이터를 만들기 위해서 매우 많은 양의 다양한 프롬프트..