جیسے جیسے AI ماڈلز تیزی سے کموڈیٹائز ہو رہے ہیں، سٹارٹ اپ سافٹ ویئر کی پرت بنانے کی دوڑ لگا رہے ہیں جو ان کے اوپر بیٹھی ہے۔ اس جگہ میں ایک دلچسپ داخل ہونے والا Osaurus ہے، ایک اوپن سورس، Apple-only LLM سرور جو صارفین کو مختلف مقامی AI ماڈلز کے درمیان مقامی طور پر یا کلاؤڈ میں منتقل کرنے دیتا ہے، جبکہ ان کی فائلوں اور ٹولز کو ان کے اپنے ہارڈ ویئر پر رکھتا ہے۔
Osaurus ایک ڈیسک ٹاپ AI ساتھی، Dinoki کے خیال سے نکلا، جسے Osaurus کے شریک بانی Terence Pae نے "AI-powered Clippy" کے طور پر بیان کیا۔ ڈینوکی کے صارفین نے اس سے پوچھا تھا کہ اگر انہیں ابھی بھی ٹوکنز کے لیے ادائیگی کرنی ہے تو وہ ایپ کیوں خریدیں - استعمال کرنے والے یونٹ AI کمپنیاں اشارے پر کارروائی کرنے اور ردعمل پیدا کرنے کے لیے چارج کرتی ہیں۔
اس نے Pae کو مقامی طور پر AI چلانے کے بارے میں مزید گہرائی سے سوچنے پر مجبور کیا۔
"اس طرح اوسورس شروع ہوا،" Pae، جو پہلے Tesla اور Netflix کے سافٹ ویئر انجینئر تھے، نے ایک کال پر TechCrunch کو بتایا۔ خیال، انہوں نے وضاحت کی، مقامی طور پر اے آئی اسسٹنٹ کو چلانے کی کوشش کرنا تھا۔ "آپ اپنے میک پر مقامی طور پر بہت کچھ کر سکتے ہیں، جیسے اپنی فائلوں کو براؤز کرنا، اپنے براؤزر تک رسائی حاصل کرنا، آپ کے سسٹم کی کنفیگریشنز تک رسائی۔ میں نے سوچا کہ یہ افراد کے لیے ذاتی AI کے طور پر Osaurus کو پوزیشن دینے کا بہترین طریقہ ہوگا۔"
Pae نے ایک اوپن سورس پروجیکٹ کے طور پر عوامی سطح پر ٹول کی تعمیر شروع کی، جس میں خصوصیات شامل کیں اور راستے میں کیڑے ٹھیک کیے گئے۔
آج، Osaurus مقامی طور پر میزبان AI ماڈلز یا OpenAI اور Anthropic جیسے کلاؤڈ فراہم کنندگان کے ساتھ لچکدار طریقے سے جڑ سکتا ہے۔ صارفین آزادانہ طور پر انتخاب کر سکتے ہیں کہ وہ کون سے AI ماڈلز استعمال کر رہے ہیں، اور AI تجربے کے دیگر پہلوؤں کو اپنے ہارڈ ویئر پر رکھ سکتے ہیں، جیسے ماڈلز کی اپنی میموری، یا ان کی فائلز اور ٹولز۔
یہ دیکھتے ہوئے کہ مختلف AI ماڈلز میں مختلف طاقتیں ہوتی ہیں، اس سسٹم کا فائدہ یہ ہے کہ صارفین AI ماڈل پر سوئچ کر سکتے ہیں جو ان کی ضروریات کے مطابق ہو۔
اس طرح کا ڈھانچہ اوسورس بناتا ہے جسے "ہارنس" کہا جاتا ہے - ایک کنٹرول پرت جو مختلف AI ماڈلز، ٹولز اور ورک فلو کو ایک ہی انٹرفیس کے ذریعے جوڑتی ہے، جیسے OpenClaw یا Hermes جیسے ٹولز۔ تاہم، فرق یہ ہے کہ اس طرح کے ٹولز کا مقصد اکثر ایسے ڈویلپرز کے لیے ہوتا ہے جو ٹرمینل کے ارد گرد اپنا راستہ جانتے ہیں۔ اور کبھی کبھی، OpenClaw کے معاملے کی طرح، وہ سیکورٹی کے مسائل اور پریشانیوں کا باعث بن سکتے ہیں۔
Osaurus، اس دوران، ایک استعمال میں آسان انٹرفیس پیش کرتا ہے جسے صارفین استعمال کر سکتے ہیں، اور چیزوں کو ہارڈ ویئر سے الگ تھلگ، ورچوئل سینڈ باکس میں چلا کر سیکیورٹی خدشات کو دور کرتا ہے۔ یہ آپ کے کمپیوٹر اور ڈیٹا کو محفوظ رکھتے ہوئے AI کو ایک مخصوص دائرہ کار تک محدود کر دیتا ہے۔
بلاشبہ، آپ کی مشین پر AI ماڈلز کو چلانے کی مشق ابھی بھی ابتدائی دنوں میں ہے، یہ دیکھتے ہوئے کہ یہ بہت زیادہ وسائل اور ہارڈ ویئر پر منحصر ہے۔ مقامی ماڈلز چلانے کے لیے، آپ کے سسٹم کو کم از کم 64 GB RAM کی ضرورت ہوگی۔ بڑے ماڈلز چلانے کے لیے، جیسے DeepSeek v4، Pae تقریباً 128 GB RAM والے سسٹمز کی تجویز کرتا ہے۔
لیکن Pae کا خیال ہے کہ مقامی AI کی ضروریات وقت کے ساتھ کم ہو جائیں گی۔
"میں اس کی صلاحیت کو دیکھ سکتا ہوں، کیونکہ انٹیلی جنس فی واٹج - جو کہ مقامی AI کے میٹرک کی طرح ہے - نمایاں طور پر بڑھ رہی ہے۔ یہ اپنی اختراع کے منحنی خطوط پر ہے۔ پچھلے سال، مقامی AI بمشکل جملے مکمل کر سکتا تھا، لیکن آج یہ اصل میں ٹولز چلا سکتا ہے، کوڈ لکھ سکتا ہے، آپ کے براؤزر تک رسائی حاصل کر سکتا ہے، اور Amazon سے سامان آرڈر کر سکتا ہے۔" اس نے کہا […]
Osaurus آج MiniMax M2.5، Gemma 4، Qwen3.6، GPT-OSS، Llama، DeepSeek V4، اور دیگر ماڈل چلا سکتا ہے۔ یہ ایپل کے آن ڈیوائس فاؤنڈیشن ماڈلز، مائع AI کی LFM فیملی آف ڈیوائس ماڈلز کو بھی سپورٹ کرتا ہے، اور کلاؤڈ میں، یہ OpenAI، Anthropic، Gemini، xAI/Grok، Venice AI، OpenRouter، Ollama، اور LM Studio سے جڑ سکتا ہے۔
ایک مکمل MCP (ماڈل سیاق و سباق پروٹوکول) سرور کے طور پر، آپ کسی بھی MCP کے موافق کلائنٹ کو اپنے ٹولز تک رسائی دے سکتے ہیں۔ اس کے علاوہ، یہ میل، کیلنڈر، ویژن، میکوس استعمال، XLSX، PPTX، براؤزر، موسیقی، گٹ، فائل سسٹم، تلاش، بازیافت، اور مزید کے لیے 20 سے زیادہ مقامی پلگ ان کے ساتھ بھیجتا ہے۔
ابھی حال ہی میں، آواز کی صلاحیتوں کو بھی شامل کرنے کے لیے اوسورس کو اپ ڈیٹ کیا گیا تھا۔
چونکہ یہ پروجیکٹ تقریباً ایک سال پہلے لائیو ہوا تھا، اس کی ویب سائٹ کے مطابق، اسے شمال میں 112000 بار ڈاؤن لوڈ کیا جا چکا ہے۔
فی الحال، Osaurus کے بانی (جن میں شریک بانی سام یو شامل ہیں) نیویارک میں قائم اسٹارٹ اپ ایکسلریٹر الائنس میں حصہ لے رہے ہیں۔ وہ اگلے اقدامات کے بارے میں بھی سوچ رہے ہیں، جو دیکھ سکتے ہیں کہ Osaurus کو کاروبار کے لیے پیش کیا جا رہا ہے، جیسے کہ قانونی جگہ یا صحت کی دیکھ بھال میں، جہاں مقامی LLMs چلانے سے رازداری کے خدشات کو دور کیا جا سکتا ہے۔
جیسے جیسے مقامی AI ماڈلز کی طاقت بڑھتی ہے، ٹیم کا خیال ہے کہ یہ AI ڈیٹا سینٹرز کی مانگ کو کم کر سکتا ہے۔ "ہم اس دھماکہ خیز نمو کو AI اسپیس میں دیکھ رہے ہیں جہاں [کلاؤڈ AI فراہم کنندگان] کو ڈیٹا سینٹرز اور انفراسٹرکچر کا استعمال کرتے ہوئے اسکیل کرنا پڑتا ہے، لیکن ہمیں ایسا لگتا ہے کہ لوگوں نے ابھی تک مقامی AI کی قدر نہیں دیکھی ہے،" Pae نے کہا۔ "کلاؤڈ پر بھروسہ کرنے کے بجائے، وہ دراصل میک اسٹوڈیو کو آن پریم تعینات کر سکتے ہیں، اور اسے کافی کم پاور استعمال کرنی چاہیے۔ آپ کے پاس اب بھی کلاؤڈ کی صلاحیتیں ہیں، لیکن آپ اس AI کو چلانے کے لیے ڈیٹا سینٹر پر انحصار نہیں کریں گے،" انہوں نے مزید کہا۔