Publicado: 2026-04-25 · Actualizado: 2026-04-25
Embeddings son vectores de números (típicamente 384-3072 dimensiones) que representan el significado semántico de un texto, imagen o audio. Vector databases (Pinecone, pgvector, Qdrant, Weaviate) los almacenan e indexan con algoritmos como HNSW para búsqueda por similitud en milisegundos. NexoSmart usa embeddings para memoria de agentes y búsqueda contextual, pero NO como mecanismo principal de razonamiento (eso lo cubre method indexing).
OpenAI docs
Qdrant benchmarks
Con un modelo de embeddings (BGE, E5, OpenAI ada-002, Voyage). Le pasás texto, devuelve un vector. Textos similares quedan cercanos en el espacio vectorial. La dimensión típica es 768 o 1536.
Indexa vectores con algoritmos de approximate nearest neighbor (HNSW, IVF) que permiten búsquedas top-k en milisegundos sobre millones de vectores. Sin esos índices, la búsqueda sería O(n) y no escalaría.
Para memoria a largo plazo (recuperar conversaciones pasadas), búsqueda semántica en docs, deduplicación de tickets y clustering de patrones. NO para razonamiento ejecutable: ahí usamos method indexing.
pgvector dentro del Postgres del cliente cuando hay menos de 10M vectores (simple, sin infra extra). Qdrant cuando el volumen escala. Modelo de embeddings: BGE-M3 multilingüe o E5 según idioma dominante.
No. Conviven: la DB relacional para datos estructurados, la vector DB para semántica. pgvector las une en una.
Cero extra si ya tenés Postgres. Solo activás la extensión y agregás índices.
Por idioma (multilingüe vs inglés solo), tamaño de vector (storage cost) y benchmarks MTEB. BGE-M3 es default seguro en NexoSmart.
Escrito por Maximiliano Rodríguez, Fundador y Director de NexoSmart
Última actualización: abril de 2026
Completá estos 3 pasos y recibí una propuesta detallada en tu email.