social.tchncs.de is one of the many independent Mastodon servers you can use to participate in the fediverse.
A friendly server from Germany – which tends to attract techy people, but welcomes everybody. This is one of the oldest Mastodon instances.

Administered by:

Server stats:

3.8K
active users

#vlm

0 posts0 participants0 posts today
Pensée du 41ème jour, 10 février

Une goutte d'eau

Ce monde,
À quoi le comparer ?
À la goutte qui tombe
Du bec de l'oiseau d'eau
Et réfléchit le clair de lune. ~ Dōgen Zenji

Fugacité du monde. Fugacité de la vie de cet être conscient qui perçoit le monde. L'existence en ce monde comme la goutte d'eau qui vient tomber du bec d'un héron et qui s'en va rejoindre l'étang, le conglomérat de toutes les gouttes d'eau. Et dans cette chute qui ne dure que quelques instants, le reflet de la lune habite la transparence de la goutte d'eau.

Notre existence peut sembler infinitésimale tant dans l'espace et dans le temps. Pour autant, elle peut refléter la lumière de l'Éveil.

Ne plus être cette seule goutte prise dans les turbulences de la chute, mais être l'étang et l'oiseau d'eau qui contemple le grand calme de l'étang dans l'aube brumeuse.
.
.
.
[D'après Bai Wenshu]
.
#pensée #penséedujour #penséepositive #bienveillance #inspiration #optimisme #citation #philosophie #calme #contemplation #immobilite #zazen #meditation #Montpellier #VLM #photo #art #philosophy

Breakthrough in Visual Language Models and Reasoning 🧠

🔍 #LLaVAo1 pioneers systematic visual reasoning capabilities:
• First #VLM to implement spontaneous step-by-step analysis like #GPT4
• New 11B model surpasses #Gemini15pro & #Llama32 performance
• Excels on 6 multimodal benchmark tests
• Breaks down complex problems into structured analysis stages

🎯 Key Features:
• Problem outline creation
• Image information interpretation
• Sequential reasoning process
• Evidence-based conclusions
• Handles science & reasoning challenges

💡 Technical Specs:
• Based on #opensource architecture
• Pretrained weights available on #HuggingFace
• 11B parameter model size
• Supports multiple reasoning domains

📚 Paper available: arxiv.org/abs/2411.10440
🔗 Project repository: github.com/PKU-YuanGroup/LLaVA

Earlier this year I wrote about my handwriting #OCR workflow. I wanted to reduce the friction in this flow so I spent some time building a telegram bot that uses #VLM models to OCR my hand writing. Introducing AnnoMemo which is open source and easyish to self-host. Currently it uses remote models but I'm planning to integrate Qwen2-VL 2B which a) understands my handwriting perfectly and b) runs on my desktop GPU. Considering providing a managed service too brainsteam.co.uk/2024/11/3/03-

brainsteam.co.uk · Simplified Handwriting OCR with AnnoMemoshort summary

Photo of the Day 1st November 2024.

PH-BDT, Boeing 737-406, KLM, being pushed back from Gate 24 at Manchester Airport, some time in the 1990s.

 

On This Day 1st November 1993.

F-GIJT, Airbus A300B4-103, Air Inter, under tow at Paris Orly, 1st November 1993.

 

On This Day 1st November 1994.

OO-VLN, Fokker F50, VLM, taxiing out to Runway 27 at London City Airport, 1st November 1994.

https://mancavgeek.co.uk/2024/11/01/photo-of-the-day-1st-november-2024/

#a300#airbus#AirInter

VLM — арт эксперты

Всем привет, меня зовут Арсений, я DS в компании Raft, и сегодня я расскажу вам про VLM. Большие языковые модели уже стали частью нашей жизни и мы применяем, чтобы упростить современную рутину, а так же используем их для решения бизнес задач. Недавно вышло новое поколение vision transformer моделей, которые заметно упростили анализ изображений, из какой бы сферы эти изображения не были. Особенно заметным был сентябрьский релиз Llama-3.2-11b, и не только потому что это первая vision модель от Llama, сколько потому, что с ней вместе вышло целое семейство моделей, включая маленькие на 1B и 3B параметров. А как вы знаете, меньше, значит юзабельнее.

habr.com/ru/articles/854864/

ХабрVLM — арт экспертыВсем привет, меня зовут Арсений, я DS в компании Raft, и сегодня я расскажу вам про VLM. Большие языковые модели уже стали частью нашей жизни и мы применяем, чтобы упростить современную рутину, а так...

VLM в Нейро: как мы создавали мультимодальную нейросеть для поиска по картинкам

Сегодня у Поиска большое обновление. Например, ответы Нейро теперь будут появляться сразу в поисковых результатах — для тех запросов, где это полезно и экономит время. Но в рамках этой статьи нас интересует другая часть обновления: Нейро поможет найти ответы в Поиске по картинкам и в Умной камере — с помощью новой мультимодальной модели Яндекса. Пользователь может не только узнать, что изображено на картинке, но и задать вопрос по каждой её детали. Например, гуляя по музею, можно сфотографировать натюрморт голландского живописца и спросить, что символизирует тот или иной предмет на картине. Меня зовут Роман Исаченко, я работаю в команде компьютерного зрения Яндекса. В этой статье я расскажу, что такое визуально‑текстовые мультимодальные модели (Visual Language Models или VLM), как у нас в Яндексе организован процесс их обучения и какая у них архитектура. Вы узнаете, как Нейро работал с картинками и текстами раньше, и что изменилось с появлением VLM.

habr.com/ru/companies/yandex/a

ХабрVLM в Нейро: как мы создавали мультимодальную нейросеть для поиска по картинкамСегодня у Поиска большое обновление. Например, ответы Нейро теперь будут появляться сразу в поисковых результатах — для тех запросов, где это полезно и экономит время....

Does anyone have a suggestion on how to run newer/more capable vision language models on Mac like XComposer2, CogVLM2-Chat, InternVL-Chat, Qwen-VL, DeepSeek-VLm, Phi3-V, etc? Vision language support for newer models are stalled in llama.cpp, so it seems impossible to find an option on Mac. Even with Torch MPS support because flash attention is not available for Apple Silicon! #LLM #VLM #ML #AI

🌿🐭🌾Vegan Land Movement 🌾🐭🌿

Removing #land from #AnimalAgriculture and giving it back to #EndangeredSpecies and the earth.

The #VLM has been created for ALL OF US who want to help create a vegan world by removing land from those who harm life and to return it to #wildlife that desperately needs #habitat to survive.

The land used to farm sentient animals causes great suffering, as well as ecological destruction and species #extinction.

veganlandmovement.com/

Vegan Land MovementVegan Land MovementRemoving land from animal agriculture and giving it back to endangered species and the earth