№ 020 · 2026-05-11
№ 020
Flue라는 샌드박스 에이전트 프레임워크가 이번주에 1,014개 스타를 추가로 받았네요. 로컬 AI가 표준이 돼야 한다는 HN 글이 353점 찍었고, Apple Silicon 최적화 서버 Omlx도 오늘 187스타 올랐어요. 클라우드에서 벗어나 로컬 쪽으로 관심 쏠리는 분위기예요.
오늘의 헤드라인
01 itemsFlue: 샌드박스 에이전트 프레임워크 3,062스타 이번주 +1,014
withastro에서 TypeScript로 만든 에이전트 샌드박스. 안전한 실행 환경. 트렌딩 1위급 폭발.
얻는 것에이전트 프로젝트에 sandbox 바로 적용 가능.
지금 할 일$GitHub README 첫 영상 30초 보세요.
왜 지금 — 에이전트 보안 이슈 속 샌드박스 솔루션 뜨고 있어요.
릴리스 · 신모델
03 itemsHugging Face Transformers v5.7.0: Laguna MoE 모델 추가
새 버전에서 Poolside의 Laguna MoE 언어 모델 지원됐어요. per-layer head·sigmoid router 혁신. <img> 포함.
얻는 것Laguna 모델 로드해 써보면 MoE 효율 직접 체감.
지금 할 일$`pip install transformers==5.7.0` 후 Laguna 데모 코드 따라 해보세요.
왜 지금 — MoE 아키텍처 다양화되면서 HF 생태계 확장.
Gemini API File Search가 멀티모달 됐어요
Google이 Gemini API에 파일 검색 기능 업그레이드했대요. 텍스트·이미지 등 멀티모달 지원으로 RAG 쉽게. HN 143점.
얻는 것API 문서 따라 파일 업로드하고 쿼리 테스트해보면 멀티모달 RAG 느낌 바로 와요.
지금 할 일$공식 블로그 열어서 'Try it out' 데모부터 해보세요.
왜 지금 — Gemini가 파일 이해 범위 넓히면서 에이전트·검색 앱 빌드 문턱 낮아져요.
llama.cpp b8960: Vulkan barrier 추가
ggerganov의 llama.cpp 새 빌드 b8960 나왔어요. Vulkan writetimestamp 후 barrier 넣었대요. 기존 b8926 이어서.
얻는 것macOS 바이너리 다운로드해 기존 모델 돌려보면 속도 차이 느껴져요.
지금 할 일$릴리스 페이지에서 macOS arm64 바이너리 다운로드해 테스트하세요.
왜 지금 — llama.cpp가 GPU 최적화 계속 밀어붙여 로컬 추론 안정성 높여요.
핫 레포
02 itemsChrome DevTools MCP: 코딩 에이전트용 3만 8,797스타 오늘 +159
ChromeDevTools에서 MCP( AI 외부 프로그램 규약) 지원 DevTools. 에이전트 디버깅 쉽게.
얻는 것에이전트 개발할 때 DevTools로 실시간 디버깅.
지금 할 일$`npm install chrome-devtools-mcp` 후 docs 따라 해보세요.
왜 지금 — MCP 표준화되면서 브라우저 도구 연동 시작.
Omlx: Apple Silicon LLM 서버 1만 3,254스타 오늘 +187
macOS 메뉴바에서 관리하는 continuous batching·SSD 캐싱 LLM 서버. 로컬 Mac 추론 특화.
얻는 것Mac에서 LLM 서버 띄워 멀티 태스크 해보기.
지금 할 일$레포 `/demo` 폴더 트리만 훑어보세요.
왜 지금 — Apple Silicon 최적화 도구들 경쟁 치열해져요.
주목할 페이퍼
01 itemsCarbon-Taxed Transformers: LLM 압축 파이프라인
SE에서 거대 LLM 효율·환경 비용 줄이는 green compression 제안. 지속가능성 강조.
얻는 것오버그로운 모델 압축 아이디어 얻어 로컬 실행 쉽게.
지금 할 일$arXiv PDF 첫 페이지 abstract 읽어보세요.
왜 지금 — LLM 탄소 발자국 논의 속 압축 방법 실전 제안.
커뮤니티 반응
02 items로컬 AI가 표준이 돼야 한다는 글 HN 353점
unix.foo에서 로컬 AI가 일상이 돼야 한다고 주장해요. 클라우드 의존 줄이고 프라이버시·속도 챙기자는 내용. HN에서 353점 받았어요.
얻는 것로컬 AI 도입 시 장단점 파악하고, 본인 워크플로에 맞춰 실험 아이디어 얻어요.
지금 할 일$HN 댓글 상단 3개 읽어보세요, 로컬 vs 클라우드 토론 재밌어요.
왜 지금 — 로컬 AI 논의가 다시 뜨면서 클라우드 중심 업계에 던지는 질문.
Chrome AI 기능이 4GB 저장공간 뺏는대요
The Verge 기사로 Chrome의 Gemini Nano 등이 4GB 차지한다는 소식. 기존 논란 이어져요. HN 89점.
얻는 것Chrome 설정에서 AI 기능 켜짐 여부 확인하고 끌 방법 알게 돼요.
지금 할 일$Chrome 설정 > AI 열어서 Gemini Nano 크기 직접 확인해보세요.
왜 지금 — Chrome AI 설치 논란 지속되면서 브라우저 AI 프라이버시 이슈 부각.
llama.cpp나 HF Transformers처럼 로컬·MoE 도구 업데이트가 잇따르니, 실제 앱에서 쓰이는지 지켜봐요. Chrome AI 저장공간 논란도 프라이버시 쪽으로 번질 수 있겠네요.
단톡방에 공유
카카오톡 공유 버튼 한 번 누르면 단톡방 여러 개에 카드 형태로 한 번에 보낼 수 있어요. 텍스트 붙여넣기로 보내고 싶으면 펼치기 눌러서 전체 텍스트 복사.