References
About 8 min
References ๊ด๋ จ
Colab
pdf(s)
X
ariG23498
/ A simple hack to calculating how much VRAM you would need to run a model.mervenoyann
/ NVIDIA just dropped a gigantic multimodal model called NVLM 72B ๐ฆdanielhanchen
/ Llama 3.2 Multimodal benchmarksArtificialAnlys
/ OpenAIโs o1-preview is the first model to substantially push the frontier of language model intelligence since the original GPT-4 over 18 months agohelloiamleonie
/ Chunking techniques for RAG:akshay_pachaar
/ Multimodal Retrieval Augmented Generation (RAG), clearly explained:weaviate_io
/ 6 types of vector embeddings for your AI applications
NVIDIA
Medium
llamaindex
/ Introducing LlamaCloud and LlamaParseberom0227
/ Running Ollama in Smart Connectionsthedeephub
/ 50+ Open-Source Options for Running LLMs Locallyaksh-garg
/ Llama 3-V: Matching GPT4-V with a 100x smaller model and 500 dollarstpbabparn
/ In-house LLM-application by Spring AI + Ollamajhk0530
/ LG์ ์คํ์์ค AI, ์์ฌ์ 3.0 ์ฌ์ฉํ๊ธฐdatastrato
/ Building A Universal Data Agent in 15 Minutes with LlamaIndex and Apache Gravitino (incubating)sarmadafzalj
/ Visualize Vector Embeddings in a RAG System
velog
@geoffyoon-dev
- ๋ฐ์ดํฐ๋ ๋ชป ๋ณด๋ด์ง๋ง Cloud LLM์ ์ฐ๊ณ ์ถ์ด@devstone
- NLP ๋ฉํธ๋ฆญ ํบ์๋ณด๊ธฐ@kwon0koang
/ ์คํ์์ค LLM์ผ๋ก RAG ์์ด์ ํธ ๋ง๋ค๊ธฐ (๋ญ์ฒด์ธ, Ollama, Tool Calling ๋์ฒด)@eunbibi
/ ์์ฐ์ด์ฒ๋ฆฌ@euisuk-chung
/ [NLP] 1. Introduction to Text Analytics@euisuk-chung
/ [NLP] 2. Steps of Text Analytics@euisuk-chung
/ [๊ฟํ] ํ๋กฌํํธ ์์ง๋์ด๋ง (๊ฐ์ ์์ฝ)@euisuk-chung
/ [IT] LLMOps์ RAG@euisuk-chung
/ 2025๋ AI ํธ๋ ๋: LMM, LAM, ์จ๋๋ฐ์ด์ค AI, AI ์์ด์ ํธ, ์๋ฒ ๋๋ AI, ๊ทธ๋ฆฌ๊ณ FMOps
Substack
aiencoder
/ GraphRAG Analysis, Part 1: How Indexing Elevates Knowledge Graph Performance in RAGweightythoughts
/ Consider the Llama
Brunch
@ZVA
/ ์ดํ ์ ๋งต์ ๋ญ๊ณ ํธ๋์คํฌ๋จธ๋ ๋ ๋ญ๋...LLM ์ ๋ฌธ@2YWz
/ Enterprise LLM ์ฌ์ฉ์ ์ธํฐํ์ด์ค@5jl5
/ [์ฑ ์๊ฐ] ๊ธ์ต AI์ ์ดํด - ์ ์ฉ ํ๊ฐ, ์ฌ๊ธฐ ํ์ง, ํํธํฌ์, ์์ฑํ AI๋ฅผ ํ์ฉํ ์ค์ ๊ธ์ต AI@ZVA
/ ์๋ฐ์ ์๋ฒ์ง ์ ์์ค ๊ณ ์ฌ๋ง, ์์ฑAI๋ฅผ ์๊ฐํ๋ค@ZVA
/ ์์ฑAI์ ์ฝ๊ธฐ์ ์ข ๋ง ์๋, ๊ฐ๋ฅด์น๋ค๋ ๊ฒ์ ๋ํ์ฌ@5jl5
/ RAG๊ธฐ๋ฐ LLM์๋น์ค ์ ๋ง@5jl5
/ [์ฑ ์๊ฐ] Transformers & LLMs ๊ทธ๋ฆผ์ฑ - Super Study Guide: Transformers & LLMs
inblog
Replicate
MetaAI
- Open sourcing AudioCraft: Generative AI for audio made simple and available to all
- Introducing Code Llama, a state-of-the-art large language model for coding
- Self-supervised learning: The dark matter of intelligence
- Audiobox: Generating audio from voice and natural language prompts
Colab
- MANATEE(lm) : Market Analysis based on language model architectures
llm-pricing-cost-quality.ipynb
cudf_pandas_stocks_demo.ipynb
Ollama
Finbarr Timbers
fast.ai
replit
Second State
Bbycroft
Justine
moomou
Trail of Bits
2MB codes
Shyam's Blog
Gradient Descent into Madness
Hamel
Ahead of AI
- Optimizing LLMs From a Dataset Perspective
- Improving LoRA: Implementing Weight-Decomposed Low-Rank Adaptation (DoRA) from Scratch
kapa.ai
Cloudflare
Martin Lumiste
Brandon's Digital Garden
Justine Tunney's Web Page
hiddenest
tistory
iostream
/ Make headway towards solving the problemcori
/ ์ฝ๋ฉํ๋ ์ค๋ฆฌsoohey
/ ๊ฐ๋ฐ ์์นด์ด๋นcsj000714
/ ๋ํ DrawingProcess- [Gen AI] ์์ฑํ ๋ชจ๋ธ๋ค์ ์๋ฆฌ ๋น๊ต: VAE, GAN, Flow-based, Diffusion
- [Gen AI] ์์ฑํ ๋ชจ๋ธ ๋ฐ ์๋น์ค ์ ๋ฆฌ
- [๋ ผ๋ฌธ๋ฆฌ๋ทฐ] LiDAR2Map: LiDAR-based distillation scheme - LiDAR2Map: In Defense of LiDAR-Based Semantic Map Construction Using Online Camera Distillation (CVPR 2023)
- [Gen AI] Generative Adversarial Network(GAN) ์ค๋ช : ๊ธฐ์ด
americanopeople
/ ๋ณต์ธํธ์ดlsjsj92
/ ๊ฟ ๋ง์ ์ฌ๋์ ์ด์ผ๊ธฐbahnsville
/ nthoughtmobicon
/ AI Convergencepearlluck
/ ๋ฐ์์ํ๊ณ ์ถ์๋ฐ์๐ฅ๐kesakiyo
/ ์ค๋๋ ๊ฐ๋ฐ๋ก๊ทธdaeson
/ ๋์๋hl1itj
/ ์ฝ๊ฒ ์ด ์ ์์๊น ?
Real Python
- Hugging Face Transformers: Leverage Open-Source AI in Python
- Natural Language Processing (NLP) with Python's Natural Language Toolkit (NLTK).
์ ์ฐ์ผ ๋ธ๋ก๊ทธ
Daddy Maker
- LlamaIndex์ LLM ๊ธฐ๋ฐ ์ ํด, ๋ฌดํด ์ด๋ฏธ์ง ์ธ์ ๊ธฐ์ ๊ฐ๋ฐ ๋ฐฉ๋ฒ
- LLM ๊ธฐ๋ฐ ๊ทธ๋ํ RAG ๊ธฐ์ ๊ตฌํํ๊ธฐ
- ๋ํ์ธ์ด๋ชจ๋ธ ๊ฒ์์ฆ๊ฐ์์ฑ์ ํต์ฌ๊ธฐ์ , ๋ฒกํฐ ๋ฐ์ดํฐ๋ฒ ์ด์ค Chroma ๋ถ์ํ๊ธฐ
- ๋ค์ค ์์ด์ ํธ LLM ์ํคํ ์ฒ ์๊ฐ
- LLM ์ ํต๊ณ์ ํจํด ์์ธก์ฑ๊ณผ ํ๊ณ์ ๋ํ ์ฐ๊ตฌ
- NLP์ ํต์ฌ. ํ ํฐ, ์๋ฒ ๋ฉ๊ณผ ํ์ธํ๋
- ๋๋ฉ์ธ ๋ชจ๋ธ ์ฑ๋ฅ๊ฐ์ ์ ์ํ Lora ๊ธฐ๋ฐ LLAMA3 ๋ชจ๋ธ ํ์ธํ๋ํ๊ธฐ
- Weights & Biases๋ก ๋ฅ๋ฌ๋ ๋ชจ๋ธ ๊ฐ๋ฐ ํ๋ก์ธ์ค ๊ธฐ๋ก, ๋ถ์, ๊ฐ์ํ ๋ฐ ๋ชจ๋ธ ํ๋ํ๊ธฐ
- 2024๋ ์คํ์์ค ๋ํ์ธ์ด๋ชจ๋ธ ์๊ฐ
- AutoRAG ํ์ฉ LLM RAG ์ต์ ํํ๊ธฐ
- LLM ๊ธฐ๋ฐ ์ผ์ ๋ฐ์ดํฐ ํด์ ๋ฐฉ๋ฒ
- sLLM๊ณผ vLLM์ ๋ํ ์ด์ผ๊ธฐ
- AI ๊ณผํ์ Sakana.AI ์ฌ์ฉ๋ฒ
- ์ธ๊ณต์ง๋ฅ ๋ฅ๋ฌ๋ ๋ชจ๋ธ ์ฑ๋ฅ ์งํ
- ํจ์จ์ ์ธ ๋ฅ๋ฌ๋ ๋ชจ๋ธ๋ง์ ์ํ ์๊ณ์ด ๋ฐ์ดํฐ ์ฒ๋ฆฌ
- ๋ก์ปฌ ๋ฉํฐ๋ชจ๋ฌ LLM ๊ธฐ๋ฐ ๊ฐ๋จํ RAG Enhanced Visual Question Answering ๊ฐ๋ฐํ๊ธฐ
Outerbounds
ChristopherGS
Simon Willison's TILs
- Language models on the command-line
- Training is not the same as chatting: ChatGPT and other LLMs donโt remember everything you say
- NotebookLMโs automatically generated podcasts are surprisingly effective
- Whisper large-v3-turbo model.
- Video scraping: extracting JSON data from a 35 second screen capture for less than 1/10th of a cent
Allen Pike
๋๋์ฝ๋์ ๊ธฐ์ ๋ธ๋ก๊ทธ
Applied LLMs
OranLooney.com
A Picture is Worth 170 Tokens: How Does GPT-4o Encode Images?
lytix.ai
llama.ttf
Eugene Yan
Alex Strick van Linschoten
imbue
Jay Alammar
The Missing Notes
- 42dot LLM์ ๋ฆฌ๋๋ณด๋ ์ฉ๋๋ก ํ์ธํ๋ํ๊ฒ ์๋๊ธฐ ๋๋ฌธ์ ์ ์๋ ๋ฎ์ง๋ง, ์ค์ ๋ก ์จ๋ณด๋ฉด ์ฑ๋ฅ์ ๋งค์ฐ ๋ฐ์ด๋ ๊ฑธ ํ์ธํ ์ ์์ต๋๋ค. 320์ฅ์ GPU๋ก ์ฝ 1์ฃผ์ผ ๋์
- ํ๋์๋์ฐจ๊ทธ๋ฃน์ ํ์์ผ๋ก MIT ์คํด ๊ต์๋๊ณผ ์ง๋ 1๋ ์ฌ๊ฐ ํจ๊ป ์งํํด์จ ์ฐํ ์ฐ๊ตฌ ๋ ผ๋ฌธ์ด ์์ฆ ํ์ ๋ค์.
llama.cpp
์ K-Quantization https://github.com/ggerganov/llama.cpp/pull/1684 ์ ๋ฐ๋ผ์ ๊ตฌํํด๋ณด๋ค๊ฐ ๊ธธ์ ์๊ณ ๐ ์ข ๋- The Era of 1-bit LLMs: All Large Language Models are in 1.58
- ๊ฐ๋ฐค์ ๋ฉํ์์ ๋๋์ด ๋ผ๋ง3๋ฅผ ๊ณต๊ฐํ์ต๋๋ค. ์ญ์๋ ๊ธฐ๋ํ๋ ๋๋ก ์๋์ ์ธ ์ค์ผ์ผ๊ณผ ์ฑ๋ฅ์ ์๋ํ๋ค์. 2๋ง 4์ฒ ์ฅ์ GPU, 15T ํ์ต ๋ฐ์ดํฐ, 1์ฒ๋ง ๊ฑด์ ์ธ์คํธ๋ญ์
- ๊ณง ์ถ์๋๋ ollama์ ์ ๊ท ๋ฒ์ ์๋ ๋๋์ด CJK ๋ฌธ์ ๊ฐ ํด๊ฒฐ๋๋ฉด์ CLI์์ ๋ฌธ์ ์์ด ํ๊ธ ์ฒ๋ฆฌ๊ฐ ๋ ๊ฒ์ผ๋ก ๋ณด์ด๋ค์. ์ด์ธ์๋
llama.cpp
์ flash llm.c
ํ๋ก์ ํธ๋ก ์์ฆ pure C/CUDA training ์ฝ๋๋ฅผ ๋ง๋ค๊ณ ์๋ ์นดํ์๊ฐ ์ด๋ฒ์ GPT-2 124M ๋ชจ๋ธ ํ์ต์ 1์ฅ์ GPU๋ก 90๋ถ๋ง์ ์ฌํํ๋ค์.
ํฌํฐํฌ๋ท | 42dot - We Are A Mobility AI Company
Haandol, TL;DR
- SLM ํ์ธํ๋ ํ๊ธฐ ์ ์ ์์๋๋ฉด ์ข์ ๋ด์ฉ - 1/2
- AI ์์ด์ ํธ ์์คํ ์ ์ค๊ณํ ๋ ์์๋๋ฉด ์ข์ ๋ด์ฉ
๋น์ฆ๋์ค, ํ ํฌ๋๋ก์ง, ๋ฆฌ๋์ญ - CIO Korea
- ์๋น๋์, ์๋ก์ด ๋ค๋ชจ ๋ฆฌํธ๋ฆฌ๋ฒ ๋ง์ดํฌ๋ก์๋น์ค ๋ฐํยทยทยท "LLM ์ ํ๋ ๋ฐ ์ฒ๋ฆฌ๋ ํฅ์ ์ง์"
- ์์ฉ RAG์ ํ์ฃผ์์ ๋์ ๊ณผ์
- โ๋ก์ปฌ ๊ธฐ๊ธฐ์์ AI ์ฑ๋ฅ ๊ทน๋ํโยทยทยท ํ๊น ํ์ด์ค, ์ํ ์ธ์ด ๋ชจ๋ธ โ์ค๋ชฐLMโ ๊ณต๊ฐ
- ์นด์นด์ค, AI ์ธ์ด๋ชจ๋ธ ์ฑ๋ฅ ํ๊ฐ ๋ฐ์ดํฐ์ ๊ตฌ์ถ ๋ฐ ์คํ์์ค ๊ณต๊ฐ
- ์ด์ฐธ์ ์์๋๊นยทยทยท ์ฃผ์ ์์ฑํ AI ์ฉ์ด 23๊ฐ์ง
ํ ํฌ๋๋ก์ง ๋ฆฌ๋๋ฅผ ์ํ ๊ธ๋ก๋ฒ IT ๋ด์ค - ITWorld Korea
- โLLM ์์ฅ์ ํ๋๋ ๋ฉํ ๋ผ๋ง 3.1โ ๊ธฐ์ ๊ณผ ์๋ฃจ์ ์ ์ฒด์ ๋์ค
- RAG ์ฐ์ ํ ์ฌ์ ์ ํ์ฌ์ ๋ฏธ๋
- "๋ชจ๋ธ์ ๊ตฌ์ ๋ฐ์ง ์๋ LLM ํ๋กฌํํธ ๊ด๋ฆฌ" ํ๋กฌํํฐ ์์ ๊ฐ์ด๋
- AI ํ์์ ํ์ค๋ก ์ฎ๊ธฐ๋ ๊ฐ์ฅ ํจ๊ณผ์ ์ธ ๋ฐฉ๋ฒ
- "ํ๋ก์ ํธ 3๊ฐ ์ค 1๊ฐ๋ ํ๊ธฐ" ์์ฑํ AI ๊ฐ์น ์ ์ฆ์ด ์ด๋ ค์ด ์ด์
- ์ปค๋ฎค๋ํฐ์ ๊ณต๊ฐ๋ ์ ํ ์ธํ ๋ฆฌ์ ์ค '๋น๋ฐ ์ง์นจ'์ผ๋ก ๋ณด๋ ์์ฑํ AI์ ๊ณผ์
- LLM ํ๋ก์ ํธ๋ฅผ ํ๋ก๋์ ์ ๋์ ํ๊ธฐ ์ํ 5๊ฐ์ง ๊ณผ์ ์ ํด๊ฒฐ์ฑ
- LLM์ด ์๋๋ผ ์ ํ๋ฆฌ์ผ์ด์ ์ด ํ์ํ ์ด์