Mrbaeksang
접속·오늘

№ 020 · · 매일 08:00 KST

020 · 2026-05-11

020

Flue라는 샌드박스 에이전트 프레임워크가 이번주에 1,014개 스타를 추가로 받았네요. 로컬 AI가 표준이 돼야 한다는 HN 글이 353점 찍었고, Apple Silicon 최적화 서버 Omlx도 오늘 187스타 올랐어요. 클라우드에서 벗어나 로컬 쪽으로 관심 쏠리는 분위기예요.

오늘의 헤드라인

01 items

릴리스 · 신모델

03 items
  • Hugging Face Transformers v5.7.0: Laguna MoE 모델 추가

    새 버전에서 Poolside의 Laguna MoE 언어 모델 지원됐어요. per-layer head·sigmoid router 혁신. <img> 포함.

    얻는 것

    Laguna 모델 로드해 써보면 MoE 효율 직접 체감.

    지금 할 일

    $`pip install transformers==5.7.0` 후 Laguna 데모 코드 따라 해보세요.

    왜 지금MoE 아키텍처 다양화되면서 HF 생태계 확장.

    github-releases7/10스토리
  • Gemini API File Search가 멀티모달 됐어요

    Google이 Gemini API에 파일 검색 기능 업그레이드했대요. 텍스트·이미지 등 멀티모달 지원으로 RAG 쉽게. HN 143점.

    얻는 것

    API 문서 따라 파일 업로드하고 쿼리 테스트해보면 멀티모달 RAG 느낌 바로 와요.

    지금 할 일

    $공식 블로그 열어서 'Try it out' 데모부터 해보세요.

    왜 지금Gemini가 파일 이해 범위 넓히면서 에이전트·검색 앱 빌드 문턱 낮아져요.

    hn-algolia6/10스토리
  • llama.cpp b8960: Vulkan barrier 추가

    ggerganov의 llama.cpp 새 빌드 b8960 나왔어요. Vulkan writetimestamp 후 barrier 넣었대요. 기존 b8926 이어서.

    얻는 것

    macOS 바이너리 다운로드해 기존 모델 돌려보면 속도 차이 느껴져요.

    지금 할 일

    $릴리스 페이지에서 macOS arm64 바이너리 다운로드해 테스트하세요.

    왜 지금llama.cpp가 GPU 최적화 계속 밀어붙여 로컬 추론 안정성 높여요.

    github-releases5/10스토리

핫 레포

02 items
  • Chrome DevTools MCP: 코딩 에이전트용 3만 8,797스타 오늘 +159

    ChromeDevTools에서 MCP( AI 외부 프로그램 규약) 지원 DevTools. 에이전트 디버깅 쉽게.

    얻는 것

    에이전트 개발할 때 DevTools로 실시간 디버깅.

    지금 할 일

    $`npm install chrome-devtools-mcp` 후 docs 따라 해보세요.

    왜 지금MCP 표준화되면서 브라우저 도구 연동 시작.

    github-trending8/10스토리
  • Omlx: Apple Silicon LLM 서버 1만 3,254스타 오늘 +187

    macOS 메뉴바에서 관리하는 continuous batching·SSD 캐싱 LLM 서버. 로컬 Mac 추론 특화.

    얻는 것

    Mac에서 LLM 서버 띄워 멀티 태스크 해보기.

    지금 할 일

    $레포 `/demo` 폴더 트리만 훑어보세요.

    왜 지금Apple Silicon 최적화 도구들 경쟁 치열해져요.

    github-trending7/10스토리

주목할 페이퍼

01 items
  • Carbon-Taxed Transformers: LLM 압축 파이프라인

    SE에서 거대 LLM 효율·환경 비용 줄이는 green compression 제안. 지속가능성 강조.

    얻는 것

    오버그로운 모델 압축 아이디어 얻어 로컬 실행 쉽게.

    지금 할 일

    $arXiv PDF 첫 페이지 abstract 읽어보세요.

    왜 지금LLM 탄소 발자국 논의 속 압축 방법 실전 제안.

    arxiv5/10스토리

커뮤니티 반응

02 items
  • 로컬 AI가 표준이 돼야 한다는 글 HN 353점

    unix.foo에서 로컬 AI가 일상이 돼야 한다고 주장해요. 클라우드 의존 줄이고 프라이버시·속도 챙기자는 내용. HN에서 353점 받았어요.

    얻는 것

    로컬 AI 도입 시 장단점 파악하고, 본인 워크플로에 맞춰 실험 아이디어 얻어요.

    지금 할 일

    $HN 댓글 상단 3개 읽어보세요, 로컬 vs 클라우드 토론 재밌어요.

    왜 지금로컬 AI 논의가 다시 뜨면서 클라우드 중심 업계에 던지는 질문.

    hn-algolia7/10스토리
  • Chrome AI 기능이 4GB 저장공간 뺏는대요

    The Verge 기사로 Chrome의 Gemini Nano 등이 4GB 차지한다는 소식. 기존 논란 이어져요. HN 89점.

    얻는 것

    Chrome 설정에서 AI 기능 켜짐 여부 확인하고 끌 방법 알게 돼요.

    지금 할 일

    $Chrome 설정 > AI 열어서 Gemini Nano 크기 직접 확인해보세요.

    왜 지금Chrome AI 설치 논란 지속되면서 브라우저 AI 프라이버시 이슈 부각.

    hn-algolia5/10스토리

llama.cpp나 HF Transformers처럼 로컬·MoE 도구 업데이트가 잇따르니, 실제 앱에서 쓰이는지 지켜봐요. Chrome AI 저장공간 논란도 프라이버시 쪽으로 번질 수 있겠네요.

단톡방에 공유

카카오톡 공유 버튼 한 번 누르면 단톡방 여러 개에 카드 형태로 한 번에 보낼 수 있어요. 텍스트 붙여넣기로 보내고 싶으면 펼치기 눌러서 전체 텍스트 복사.