mastodon.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
The original server operated by the Mastodon gGmbH non-profit

Administered by:

Server stats:

341K
active users

#knn

0 posts0 participants0 posts today

Машинное обучение: Классификация методом KNN. Теория и реализация. С нуля. На чистом Python

В этой статье я привел основные сведения о методе классификации k-ближайших соседей. Рассказываю все в своем стиле. Теоретические моменты и простая реализация. Содержание: что это за метод, идея этого метода, как классифицировать (регрессировать) новые объекты, масштабирование признаков, как его можно применять, реализация.

habr.com/ru/articles/866636/

ХабрМашинное обучение: Классификация методом KNN. Теория и реализация. С нуля. На чистом PythonВ этой статье я привел основные сведения о методе классификации k-ближайших соседей. Рассказываю все в своем стиле. Теоретические моменты и простая реализация. Содержание: что это за метод, идея этого...

Major Update for Vector Search in SQLite 🚀

🔍 #SQLite-vec v0.1.6 introduces powerful new features:
• Added support for #metadata columns enabling WHERE clause filtering in #KNN queries
• Implemented partition keys for 3x faster selective queries
• New auxiliary columns for efficient unindexed data storage
• Compatible with #embeddings from any provider

🎯 Key improvements:
• Store non-vector data like user_id and timestamps
• Filter searches using metadata constraints
• Optimize query performance through smart partitioning
• Enhanced data organization with auxiliary columns

⚡ Performance focus:
• Partition keys reduce search space significantly
• Metadata filtering streamlines result selection
• Auxiliary columns minimize JOIN operations
• Binary quantization options for speed optimization

🔄 #Database integration:
• Supports boolean, integer, float & text values
• Works with standard SQL queries
• Enables complex search combinations
• Maintains data consistency

Source: alexgarcia.xyz/blog/2024/sqlit

alexgarcia.xyzsqlite-vec now supports metadata columns and filteringMetadata, partition key, and auxiliary column support in sqlite-vec

#Zoomposium mit Dr. #Gabriele #Scheler: "Die #Sprache des #Gehirns - oder wie #KI von #biologischen #Sprachmodellen lernen kann"

Es zeichnet sich ein „#Paradigmenwechsel“ ab, der weg vom informationstechnologischen-mechanistischen, daten-getriebenen "#Big #Data"-Konzept der LLMs hin zu immer stärker informationsbiologische-polykontexturalen, struktur-getriebenen „#Künstliche, #Neuronale #Netzwerke (#KNN)“-Konzepten vollzieht.

Mehr auf: philosophies.de/index.php/2024

oder: youtu.be/forOGk8k0W8

terminology question: exact vs approximate
HNSW is approximate, brute-force exact. but what about quantized brute-force? it's both exact (brute-force) and approximate to some degree (quantized). how do you differentiate between algorithm and precision? it should be called...

Нейронные оптимизаторы запросов в реляционных БД (Часть 2): На пути к продуктивизации

Нельзя просто взять и заменить нейросетями миллионы человеко-часов, вложенных в разработку классических оптимизаторов запросов реляционных СУБД. Надёжность, гибкость и скорость — ключевые характеристики экспертных систем, которые нарабатывались и отлаживались десятилетиями. В прошлой статье рассказали о пионерах в области нейросетевых оптимизаторов, которые создали плацдарм для развития подобных ML-систем и их последующего вывода на уровень коммерческих продуктов. В этой же — затронем относительно стабильные подходы, не требующие гигантских вычислительных кластеров и удовлетворяющие большую часть потребностей бизнеса. Серебряной пули, конечно, не существует, но с каждым из этих методов можно прийти к оптимальному решению для конкретной задачи.

habr.com/ru/companies/postgres

ХабрНейронные оптимизаторы запросов в реляционных БД (Часть 2): На пути к продуктивизацииВведение Нельзя просто взять и заменить нейросетями миллионы человеко-часов, вложенных в разработку классических оптимизаторов запросов реляционных СУБД. Надёжность, гибкость и скорость — ключевые...

Ab dem 1. Oktober startet das #Förderprogramm "Klimafreundlicher #Neubau im #Niedrigpreissegment" (#KNN), um den Bau von günstigen und nachhaltigen #Wohnungen zu unterstützen. Gefördert werden klimafreundliche #Neubauten mit niedrigen #Treibhausgasemissionen und optimierter #Wohnfläche. Durch zinsgünstige #KfW-Kredite sollen #Baukosten gesenkt werden. Kredite bis zu 100.000 Euro für #Privatpersonen und Unternehmen sind möglich

#NachhaltigBauen #Wohnungsbau #Klimaschutz

zdf.de/nachrichten/politik/deu

ZDFheute · Klimafreundlicher Neubau: Was ab Oktober gefördert wirdBy Henriette de Maizière

Теоретические основы всех популярных алгоритмов машинного обучения и их реализация с нуля на Python

В данной статье в виде ссылок представлены все популярные алгоритмы классического машинного обучения с их подробным теоретическим описанием и немного упрощённой реализацией с нуля на Python, отражающей основную идею. Помимо этого, в конце каждой темы указаны дополнительные источники для более глубокого ознакомления, а суммарное время прочтения статей ниже составляет более трёх часов !

habr.com/ru/articles/804605/

ХабрТеоретические основы всех популярных алгоритмов машинного обучения и их реализация с нуля на PythonВ данной статье в виде ссылок представлены все популярные алгоритмы классического машинного обучения с их подробным теоретическим описанием и немного упрощённой реализацией с нуля на Python,...

Метод K-ближайших соседей (KNN). Принцип работы, разновидности и реализация с нуля на Python

К-ближайших соседей (K-Nearest Neighbors или просто KNN) — алгоритм классификации и регрессии, основанный на гипотезе компактности, которая предполагает, что расположенные близко друг к другу объекты в пространстве признаков имеют схожие значения целевой переменной или принадлежат к одному классу.

habr.com/ru/articles/801885/

ХабрМетод K-ближайших соседей (KNN). Принцип работы, разновидности и реализация с нуля на PythonК-ближайших соседей (K-Nearest Neighbors или просто KNN) — алгоритм классификации и регрессии, основанный на гипотезе компактности, которая предполагает, что расположенные близко друг к другу объекты...

최근 #AI 연구들 나오는게 패턴이 다 거기서 거기라 (개개의 의미있음과는 별개로) 좀 식상한감이 없잖았는데.. 간만에 진짜 재밌는 논문을 하나 읽었습니다. ACL 2023에 발표된 논문인 것 같은데 인사이트가 매우 근사하네요.

전문: aclanthology.org/2023.findings

저자들은 굉장히 단순한 #kNN (k-최근접 이웃) 알고리즘을 써서 #딥러닝 + #트랜스포머 기반의 모델들을 (특히 기존의 sota였던 #BERT 를) 능가하는 텍스트 분류 모델을 만들어 냈습니다. 그 아이디어가 진짜 기가 막힌데.. 압축 알고리즘을 핵심 거리측도로 사용했네요.

이게 뭔말이냐면
: 텍스트 A만 압축 → 별도로 A와 B를 같이 압축 → 사이즈가 비슷할수록 A와 B는 '가깝다'!

구현도 이해도 무척 직관적입니다. 그리고 *당연히* 딥러닝보다 훨씬 리소스를 덜먹습니다. 요즘 기준으로 BERT가 그리 무거운 모델은 아닙니다만 대규모 분류작업이 줄 이점을 생각하면 이 연구의 시사점은 큽니다.

Compressors such as #gzip + #kNN (k-nearest-neighbor i.e. your grandparents' #classifier) beats the living daylights of Deep neural networks (#DNNs) in sentence classification.
H/t @lgessler

Without any training parameters, this non-parametric, easy and lightweight (no #GPU) method achieves results that are competitive with non-pretrained deep learning methods on six in-distribution datasets.It even outperforms BERT on all five OOD datasets.

#AI #machinelearning

aclanthology.org/2023.findings

ACL Anthology“Low-Resource” Text Classification: A Parameter-Free Classification Method with CompressorsZhiying Jiang, Matthew Yang, Mikhail Tsirlin, Raphael Tang, Yiqin Dai, Jimmy Lin. Findings of the Association for Computational Linguistics: ACL 2023. 2023.