Y
Share what you're building…
KO → JA · Embeddingsで翻訳
Rustの所有権システムを6ヶ月使ってみた率直なレビュー。最初はコンパイラと格闘している感覚だったが、今はなぜこう設計されているのかが分かる。borrow checkerを体得すると、ランタイムエラーになり得るバグがコンパイル時に検出される。
rust original preserved
fn main () {
let s1 = String :: from ( "hello" );
let s2 = s1 ; // s1 is moved
// println!("{}", s1); // compile error!
println !( "{}" , s2 );
} SERIES 3편
pgvector完全攻略 PostgreSQLから始めるベクター検索。導入から100万ベクターのスケーリングまで。
1 pgvectorプロダクション導入ガイド:10万ベクター以下なら十分だ 12m
2 HNSW vs IVFFlat:pgvectorインデックス戦略の深掘り比較 9m
3 pgvectorからQdrantへ:100万ベクターのマイグレーション実戦記 14m
愛
中村愛子 — 異なる視点
@aiko_design · 10h デザインシステムのカラートークンを「意味」で命名し直した。primary-blueではなく、interactive-default、surface-elevated、feedback-successのように。色が変わってもトークン名は変わらない。チームの認知負荷が明らかに減った。
React 19のServer Actionsを3ヶ月使ってみた率直な感想。フォーム処理が劇的にシンプルになったが、メンタルモデルの転換が重要だ。APIルートを移行するだけでなく、データのミューテーションに対する考え方自体が変わる。
S
Sarah Chen
@sarah_embeddings · 11h ✦ cross-lingual
EN → JA · Embeddingsで翻訳
8 min read
Gemini Embedding 2でクロスリンガル検索を構築する Gemini Embedding 2はクロスリンガルなセマンティック検索において本当に印象的だ。韓国語の技術文書と英語のクエリでテストしたが、明示的な翻訳なしでもコサイン類似度が一貫して維持される。
Y
Yoonsoo Kim @yoonsoo · キュレーション · 1d
クロスリンガル検索入門 必読資料 言語の壁のないセマンティック検索を始める時に読むべきもの。論文から実践実装まで。
Gemini Embedding 2でクロスリンガル検索を構築する EN pgvectorプロダクション導入ガイド:10万ベクター以下なら十分だ KO Multilingual E5 Text Embeddings: A Technical Report EN BEIR: A Heterogeneous Benchmark for Zero-shot Evaluation EN +1件以上
KO → JA · Embeddingsで翻訳
ベクターDB比較:Qdrant vs Pinecone vs Weaviate。Qdrantはパフォーマンスとself-hostingの柔軟性。Pineconeはzero-ops体験。WeaviateはGraphQLが必要な時。サイドプロジェクトならQdrantローカル→トラクションが出てきたらmanagedへ。
M
Marcus Weber — 異なる視点
@marcus_thought · 14h ✦ cross-lingual
EN → JA · Embeddingsで翻訳
「最適化」という言葉に警戒心を持つようになった。人間の行動を最適化するシステムは、最適化の対象を「ユーザー」から「ユーザーの注意」にすり替える。設計者が問うべきは「何を最適化するか」ではなく「誰のために最適化するか」だ。
KO → JA · Embeddingsで翻訳
クロスリンガル埋め込みモデル比較結果:Gemini Embedding 2 > multilingual-e5-large > LaBSE の順。特に韓国語-英語ペアでGemini 2が圧倒的。ただしAPIコストが変数。オープンソースを使うならmultilingual-e5-largeを推奨。
python original preserved
import google . generativeai as genai
result = genai . embed_content (
model = "models/gemini-embedding-2-preview" ,
content = "ベクターDB性能比較" ,
task_type = "RETRIEVAL_QUERY" ,
)
print ( result [ "embedding" ][:5]) S
Sarah Chen @sarah_embeddings · 2d
SERIES 3편
セマンティック検索エンジニアリング 埋め込みモデルの選定からRAGパイプラインの設計・評価まで。実装者のための実践ガイド。
1 Gemini Embedding 2でクロスリンガル検索を構築する 8m
2 RAGアーキテクチャの選択:Naive RAGからModular RAGまで 10m
3 MTEBで埋め込みモデルを評価する:実践ガイド 7m
KO → JA · Embeddingsで翻訳
12 min read
pgvectorプロダクション導入ガイド:10万ベクター以下なら十分だ PostgreSQL + pgvectorを6ヶ月運用した結果、10万ベクターまでは別途インフラなしで十分高速だ。HNSWインデックスのチューニングとパーティショニング戦略を共有する。
陽
田中陽子 @yoko_frontend · キュレーション · 23h
フロントエンドエンジニアのためのAI入門 読み物まとめ AIを自分のプロダクトに組み込みたいフロントエンドエンジニアが最初に読むべきもの。難しい数学は抜き。
React 19のServer Actionsを3ヶ月使ってみた率直な感想。フォーム処理が劇的にシンプルになったが、メン… JA Gemini Embedding 2でクロスリンガル検索を構築する EN Attention Is All You Need EN Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks EN +1件以上
KO → JA · Embeddingsで翻訳
9 min read
HNSW vs IVFFlat:pgvectorインデックス戦略の深掘り比較 pgvectorの2つのインデックス戦略を実測データで比較した。ベクター数とrecallの要求に応じて選択基準が変わる。