References
References 관련
Colab
pdf(s)
X
ariG23498/ A simple hack to calculating how much VRAM you would need to run a model.mervenoyann/ NVIDIA just dropped a gigantic multimodal model called NVLM 72B 🦖danielhanchen/ Llama 3.2 Multimodal benchmarksArtificialAnlys/ OpenAI’s o1-preview is the first model to substantially push the frontier of language model intelligence since the original GPT-4 over 18 months agohelloiamleonie/ Chunking techniques for RAG:akshay_pachaar/ Multimodal Retrieval Augmented Generation (RAG), clearly explained:weaviate_io/ 6 types of vector embeddings for your AI applications
NVIDIA
Medium
llamaindex/ Introducing LlamaCloud and LlamaParseberom0227/ Running Ollama in Smart Connectionsthedeephub/ 50+ Open-Source Options for Running LLMs Locallyaksh-garg/ Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollarstpbabparn/ In-house LLM-application by Spring AI + Ollamajhk0530/ LG의 오픈소스 AI, 엑사원 3.0 사용후기datastrato/ Building A Universal Data Agent in 15 Minutes with LlamaIndex and Apache Gravitino (incubating)sarmadafzalj/ Visualize Vector Embeddings in a RAG System
velog
@geoffyoon-dev- 데이터는 못 보내지만 Cloud LLM은 쓰고싶어@devstone- NLP 메트릭 톺아보기@kwon0koang/ 오픈소스 LLM으로 RAG 에이전트 만들기 (랭체인, Ollama, Tool Calling 대체)@eunbibi/ 자연어처리@euisuk-chung/ [NLP] 1. Introduction to Text Analytics@euisuk-chung/ [NLP] 2. Steps of Text Analytics@euisuk-chung/ [꿀팁] 프롬프트 엔지니어링 (강의 요약)@euisuk-chung/ [IT] LLMOps와 RAG@euisuk-chung/ 2025년 AI 트렌드: LMM, LAM, 온디바이스 AI, AI 에이전트, 임베디드 AI, 그리고 FMOps@euisuk-chung/ [트렌드] 트렌스포머 이후의 차세대 아키텍쳐: MoE, SSM, RetNet, V-JEPA@euisuk-chung/ [NLP] 5. 자연어 차원 축소(Dimension Reduction) 기법
Substack
aiencoder/ GraphRAG Analysis, Part 1: How Indexing Elevates Knowledge Graph Performance in RAGweightythoughts/ Consider the Llama
Brunch
@ZVA/ 어텐션맵은 뭐고 트랜스포머는 또 뭐냐...LLM 입문@2YWz/ Enterprise LLM 사용자 인터페이스@5jl5/ [책소개] 금융 AI의 이해 - 신용 평가, 사기 탐지, 퀀트투자, 생성형 AI를 활용한 실전 금융 AI@ZVA/ 자바의 아버지 제임스 고슬링, 생성AI를 생각한다@ZVA/ 생성AI와 읽기의 종말 시대, 가르친다는 것에 대하여@5jl5/ RAG기반 LLM서비스 전망@5jl5/ [책소개] Transformers & LLMs 그림책 - Super Study Guide: Transformers & LLMs@ZVA/ 벡터 임베딩 기반 RAG는 왜 실패하는가@2rV/ 누구나 참여할 수 있는 프로토타이핑 - AI 코드 제너레이터와 함께하는 새로운 개발 문화
inblog
Replicate
MetaAI
- Open sourcing AudioCraft: Generative AI for audio made simple and available to all
- Introducing Code Llama, a state-of-the-art large language model for coding
- Self-supervised learning: The dark matter of intelligence
- Audiobox: Generating audio from voice and natural language prompts
Colab
- MANATEE(lm) : Market Analysis based on language model architectures
llm-pricing-cost-quality.ipynbcudf_pandas_stocks_demo.ipynb
Ollama
Finbarr Timbers
fast.ai
replit
Second State
Bbycroft
Justine
moomou
Trail of Bits
2MB codes
Shyam's Blog
Gradient Descent into Madness
Hamel
Ahead of AI
- Optimizing LLMs From a Dataset Perspective
- Improving LoRA: Implementing Weight-Decomposed Low-Rank Adaptation (DoRA) from Scratch
kapa.ai
Cloudflare
Martin Lumiste
Brandon's Digital Garden
Justine Tunney's Web Page
hiddenest
tistory
iostream/ Make headway towards solving the problemcori/ 코딩하는 오리soohey/ 개발 아카이빙csj000714/ 드프 DrawingProcess- [Gen AI] 생성형 모델들의 원리 비교: VAE, GAN, Flow-based, Diffusion
- [Gen AI] 생성형 모델 및 서비스 정리
- [논문리뷰] LiDAR2Map: LiDAR-based distillation scheme - LiDAR2Map: In Defense of LiDAR-Based Semantic Map Construction Using Online Camera Distillation (CVPR 2023)
- [Gen AI] Generative Adversarial Network(GAN) 설명: 기초
- [논문 리뷰] HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting (CVPR 2024)
- [논문 리뷰] HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting (CVPR 2024)
- [논문리뷰] Spacetime Gaussian Feature Splatting for Real-Time Dynamic View Synthesis (CVPR 2024)
- [논문리뷰] DINO: Emerging Properties in Self-Supervised Vision Transformers (ICCV 2021)
- [논문 리뷰] D-NeRF: Neural Radiance Fields for Dynamic Scenes (CVPR 2021)
- [Career] CES 2025 사전 준비 및 관람
- [Project] 2024 경희대학교 SW페스티벌: 피지컬 컴퓨팅 분야(24.11.27.)
- [논문 리뷰] HyperNeRF : A Higher-Dimensional Representation for Topologically Varying Neural Radiance Fields (ACM TG 2021)
- [논문 리뷰] 4D Gaussian Splatting: 4D Gaussian Splatting for Real-Time Dynamic Scene Rendering (CVPR 2024)
- [논문 리뷰] Ha-NeRF: NeRFwithRealWorld + CNN Appearance Embedding - Hallucinated Neural Radiance Fields in the Wild
americanopeople/ 복세편살lsjsj92/ 꿈 많은 사람의 이야기bahnsville/ nthoughtmobicon/ AI Convergencepearlluck/ 데엔잘하고싶은데엔🔥💎kesakiyo/ 오늘도 개발로그daeson/ 대소니hl1itj/ 쉽게 살 수 있을까 ?syaku/ 샤쿠 블로그ravenkim97/ Life Logjeongchul/ Jeongchul Kim- ML Interview - Transfer Learning
- ML Interview - Anomaly Detection
- ML Interview - Z Score
- ML Interview - IQR
- ML Interview - 하이퍼파라미터 튜닝 기법
- ML Interview - Bayesian Optimization
- ML Interview - Evolutionary Algorithms
- ML Interview - Normalization
- ML Interview - 추천 시스템의 고수준 설계
- ML Interview - 모델 추론 실시간 서빙 시스템
- ML Interview - Cross Validation
- ML Interview - 딥러닝의 장점과 단점
- ML Interview - Curse of Dimensionality 차원의 저주
- ML Interview - Parallelism with NVLink
aspdotnet/ 재우니의 블로그shplab/ 박서희연구소
Real Python
- Hugging Face Transformers: Leverage Open-Source AI in Python
- Natural Language Processing (NLP) with Python's Natural Language Toolkit (NLTK).
정우일 블로그
Daddy Maker
- LlamaIndex와 LLM 기반 유해, 무해 이미지 인식 기술 개발 방법
- LLM 기반 그래프 RAG 기술 구현하기
- 대형언어모델 검색증강생성의 핵심기술, 벡터 데이터베이스 Chroma 분석하기
- 다중 에이전트 LLM 아키텍처 소개
- LLM 의 통계적 패턴 예측성과 한계에 대한 연구
- NLP의 핵심. 토큰, 임베딩과 파인튜닝
- 도메인 모델 성능개선을 위한 Lora 기반 LLAMA3 모델 파인튜닝하기
- Weights & Biases로 딥러닝 모델 개발 프로세스 기록, 분석, 가시화 및 모델 튜닝하기
- 2024년 오픈소스 대형언어모델 소개
- AutoRAG 활용 LLM RAG 최적화하기
- LLM 기반 센서 데이터 해석 방법
- sLLM과 vLLM에 대한 이야기
- AI 과학자 Sakana.AI 사용법
- 인공지능 딥러닝 모델 성능 지표
- 효율적인 딥러닝 모델링을 위한 시계열 데이터 처리
- 로컬 멀티모달 LLM 기반 간단한 RAG Enhanced Visual Question Answering 개발하기
Outerbounds
ChristopherGS
Simon Willison's TILs
- Language models on the command-line
- Training is not the same as chatting: ChatGPT and other LLMs don’t remember everything you say
- NotebookLM’s automatically generated podcasts are surprisingly effective
- Whisper large-v3-turbo model.
- Video scraping: extracting JSON data from a 35 second screen capture for less than 1/10th of a cent
Allen Pike
냉동코더의 기술블로그
Applied LLMs
OranLooney.com
A Picture is Worth 170 Tokens: How Does GPT-4o Encode Images?
lytix.ai
llama.ttf
Eugene Yan
Alex Strick van Linschoten
imbue
Jay Alammar
The Missing Notes
- 42dot LLM은 리더보드 용도로 파인튜닝한게 아니기 때문에 점수는 낮지만, 실제로 써보면 성능은 매우 뛰어난 걸 확인할 수 있습니다. 320장의 GPU로 약 1주일 동안
- 현대자동차그룹의 후원으로 MIT 윤킴 교수님과 지난 1년여간 함께 진행해온 산학 연구 논문이 요즘 화제네요.
llama.cpp의 K-Quantization https://github.com/ggerganov/llama.cpp/pull/1684 을 따라서 구현해보다가 길을 잃고 😑 좀 더- The Era of 1-bit LLMs: All Large Language Models are in 1.58
- 간밤에 메타에서 드디어 라마3를 공개했습니다. 역시나 기대했던 대로 압도적인 스케일과 성능을 자랑하네요. 2만 4천 장의 GPU, 15T 학습 데이터, 1천만 건의 인스트럭션
- 곧 출시되는 ollama의 신규 버전에는 드디어 CJK 문제가 해결되면서 CLI에서 문제 없이 한글 처리가 될 것으로 보이네요. 이외에도
llama.cpp에 flash llm.c프로젝트로 요즘 pure C/CUDA training 코드를 만들고 있는 카파시가 이번에 GPT-2 124M 모델 학습을 1장의 GPU로 90분만에 재현했네요.
포티투닷 | 42dot - We Are A Mobility AI Company
Haandol, TL;DR
비즈니스, 테크놀로지, 리더십 - CIO Korea
- 엔비디아, 새로운 네모 리트리버 마이크로서비스 발표··· "LLM 정확도 및 처리량 향상 지원"
- 상용 RAG의 현주소와 도전 과제
- “로컬 기기에서 AI 성능 극대화”··· 허깅페이스, 소형 언어 모델 ‘스몰LM’ 공개
- 카카오, AI 언어모델 성능 평가 데이터셋 구축 및 오픈소스 공개
- 이참에 알아둘까··· 주요 생성형 AI 용어 23가지
테크놀로지 리더를 위한 글로벌 IT 뉴스 - ITWorld Korea
- “LLM 시장을 흔드는 메타 라마 3.1” 기업과 솔루션 업체의 득실
- RAG 산업화 여정의 현재와 미래
- "모델에 구애받지 않는 LLM 프롬프트 관리" 프롬프티 시작 가이드
- AI 환상을 현실로 옮기는 가장 효과적인 방법
- "프로젝트 3개 중 1개는 폐기" 생성형 AI 가치 입증이 어려운 이유
- 커뮤니티에 공개된 애플 인텔리전스 '비밀 지침'으로 보는 생성형 AI의 과제
- LLM 프로젝트를 프로덕션에 도입하기 위한 5가지 과제와 해결책
- LLM이 아니라 애플리케이션이 필요한 이유