पब्लिश करने की तारीख: 16 मई, 2024
अच्छी और बुरी समीक्षाओं से, खरीदार को खरीदारी का फ़ैसला लेने में मदद मिल सकती है.
बाहरी रिसर्च के मुताबिक, 82% ऑनलाइन खरीदार खरीदारी करने से पहले नकारात्मक समीक्षाएं खोजते हैं. ये नेगेटिव समीक्षाएं, खरीदारों और कारोबारों के लिए काम की होती हैं. नेगेटिव समीक्षाओं की मदद से, सामान लौटाने की दरों को कम किया जा सकता है. साथ ही, प्रॉडक्ट बनाने वालों को अपने प्रॉडक्ट को बेहतर बनाने में मदद मिलती है.
समीक्षा की क्वालिटी को बेहतर बनाने के कुछ तरीके यहां दिए गए हैं:
- सबमिट करने से पहले, हर समीक्षा की जांच करके उसमें बुरे बर्ताव का पता लगाना. हम उपयोगकर्ताओं को आपत्तिजनक भाषा और काम की नहीं लगने वाली अन्य टिप्पणियों को हटाने के लिए कह सकते हैं. इससे उनकी समीक्षा से, दूसरे उपयोगकर्ताओं को खरीदारी का बेहतर फ़ैसला लेने में मदद मिलती है.
- नेगेटिव: यह बैग बहुत बुरा है और मुझे इससे नफ़रत है.
- काम के फ़ीडबैक के साथ नेगेटिव ज़िपर बहुत सख्त होते हैं और मटीरियल सस्ता लगता है. मैंने यह बैग लौटा दिया है.
- समीक्षा में इस्तेमाल की गई भाषा के आधार पर, अपने-आप रेटिंग जनरेट करना.
- यह तय करना कि समीक्षा नकारात्मक है या सकारात्मक.
आखिर में, प्रॉडक्ट की रेटिंग पर उपयोगकर्ता का फ़ैसला ही मान्य होना चाहिए.
इस कोडलैब में, डिवाइस पर और ब्राउज़र में क्लाइंट-साइड के समाधान दिए गए हैं. इसके लिए, एआई को डेवलप करने की जानकारी, सर्वर या एपीआई पासकोड की ज़रूरत नहीं होती.
ज़रूरी शर्तें
Gemini API या OpenAI API जैसे समाधानों के साथ सर्वर-साइड एआई, कई ऐप्लिकेशन के लिए बेहतर समाधान उपलब्ध कराता है. हालांकि, इस गाइड में हम क्लाइंट-साइड वेब एआई पर फ़ोकस करते हैं. क्लाइंट-साइड एआई इंफ़रेंस, ब्राउज़र में होता है. इससे वेब उपयोगकर्ताओं के अनुभव को बेहतर बनाने के लिए, सर्वर राउंड ट्रिप हटाए जाते हैं.
इस कोडलैब में, हम अलग-अलग तकनीकों का इस्तेमाल करके आपको दिखाते हैं कि क्लाइंट-साइड एआई के लिए आपके टूलबॉक्स में क्या है.
हम इन लाइब्रेरी और मॉडल का इस्तेमाल करते हैं:
- नुकसान पहुंचाने वाले कॉन्टेंट का विश्लेषण करने के लिए, TensforFlow.js. TensorFlow.js, वेब पर अनुमान और ट्रेनिंग, दोनों के लिए एक ओपन सोर्स मशीन लर्निंग लाइब्रेरी है.
- सेंटिमेंट विश्लेषण के लिए transformers.js. Transformers.js, Hugging Face की वेब एआई लाइब्रेरी है.
- स्टार रेटिंग के लिए Gemma 2B. Gemma, लाइटवेट और ओपन मॉडल का एक फ़ैमिली है. इसे उसी रिसर्च और टेक्नोलॉजी का इस्तेमाल करके बनाया गया है जिसका इस्तेमाल Google ने Gemini मॉडल बनाने के लिए किया था. Gemma को ब्राउज़र में चलाने के लिए, हम इसका इस्तेमाल MediaPipe के एक्सपेरिमेंटल एलएलएम इंफ़रेंस एपीआई के साथ करते हैं.
उपयोगकर्ता अनुभव और सुरक्षा से जुड़ी बातें
उपयोगकर्ताओं को बेहतर अनुभव देने और उनकी सुरक्षा के लिए, ये कुछ ज़रूरी बातें हैं:
- उपयोगकर्ता को रेटिंग में बदलाव करने की अनुमति दें. आखिर में, प्रॉडक्ट की रेटिंग पर उपयोगकर्ता का फ़ैसला ही मान्य होना चाहिए.
- उपयोगकर्ता को साफ़ तौर पर बताएं कि रेटिंग और समीक्षाएं ऑटोमेटेड हैं.
- उपयोगकर्ताओं को ऐसी समीक्षा पोस्ट करने की अनुमति दें जिसे 'आपत्तिजनक' के तौर पर मार्क किया गया हो. हालांकि, सर्वर पर दूसरी जांच करें. ऐसा करने से, किसी भी तरह के बुरे बर्ताव वाली समीक्षा को गलती से बुरे बर्ताव वाली समीक्षा (फ़ॉल पॉज़िटिव) के तौर पर लेबल कर दिया जाता है. इसमें ऐसे मामले भी शामिल हैं जहां नुकसान पहुंचाने वाला उपयोगकर्ता, क्लाइंट-साइड जांच को बायपास कर पाता है.
- बुरे बर्ताव की जांच क्लाइंट-साइड से करना फ़ायदेमंद होता है, लेकिन इसे बायपास किया जा सकता है. पक्का करें कि आपने सर्वर-साइड की भी जांच की हो.
TensorFlow.js की मदद से, कॉन्टेंट में मौजूद नुकसान पहुंचाने वाले कॉन्टेंट का विश्लेषण करना
TensorFlow.js की मदद से, उपयोगकर्ता की समीक्षा के बुरे बर्ताव का विश्लेषण तुरंत शुरू किया जा सकता है.
- TensorFlow.js लाइब्रेरी और नुकसान पहुंचाने वाले कॉन्टेंट का पता लगाने वाले मॉडल को इंस्टॉल और import करें.
- अनुमान के लिए कम से कम कॉन्फ़िडेंस सेट करें. डिफ़ॉल्ट रूप से यह 0.85 होती है. हमारे उदाहरण में, हमने इसे 0.9 पर सेट किया है.
- मॉडल को एसिंक्रोनस रूप से लोड करें.
- समीक्षा को एसिंक्रोनस रूप से वर्गीकृत करें. हमारा कोड किसी भी कैटगरी के लिए, 0.9 के थ्रेशोल्ड को पार करने वाले अनुमानों की पहचान करता है.
यह मॉडल, बुरे बर्ताव को कई कैटगरी में बांट सकता है. जैसे, किसी की पहचान पर हमला करना, अपमान करना, अश्लीलता दिखाना वगैरह.
उदाहरण के लिए:
import * as toxicity from '@tensorflow-models/toxicity';
// Minimum prediction confidence allowed
const TOXICITY_COMMENT_THRESHOLD = 0.9;
const toxicityModel = await toxicity.load(TOXICITY_COMMENT_THRESHOLD);
const toxicityPredictions = await toxicityModel.classify([review]);
// `predictions` is an array with the raw toxicity probabilities
const isToxic = toxicityPredictions.some(
(prediction) => prediction.results[0].match
);
Transformers.js की मदद से सेंटीमेंट का पता लगाना
Transformers.js लाइब्रेरी को इंस्टॉल और इंपोर्ट करें.
एक खास पाइपलाइन की मदद से, भावनाओं का विश्लेषण करने टास्क सेट अप करें. किसी पाइपलाइन का पहली बार इस्तेमाल करने पर, मॉडल डाउनलोड और कैश मेमोरी में सेव हो जाता है. इसके बाद, सेंटीमेंट का विश्लेषण ज़्यादा तेज़ी से किया जा सकेगा.
समीक्षा को अलग-अलग कैटगरी में बांटने के लिए, एक साथ कई प्रोसेस चलाएं. अपने ऐप्लिकेशन के लिए, भरोसे का वह लेवल सेट करने के लिए कस्टम थ्रेशोल्ड का इस्तेमाल करें जो आपके हिसाब से सही हो.
उदाहरण के लिए:
import { pipeline } from '@xenova/transformers';
const SENTIMENT_THRESHOLD = 0.9;
// Create a pipeline (don't block rendering on this function)
const transformersjsClassifierSentiment = await pipeline(
'sentiment-analysis'
);
// When the user finishes typing
const sentimentResult = await transformersjsClassifierSentiment(review);
const { label, score } = sentimentResult[0];
if (score > SENTIMENT_THRESHOLD) {
// The sentiment is `label`
} else {
// Classification is not conclusive
}
Gemma और MediaPipe की मदद से, स्टार रेटिंग का सुझाव पाना
LLM Inference API की मदद से, ब्राउज़र में लार्ज लैंग्वेज मॉडल (एलएलएम) को पूरी तरह से चलाया जा सकता है.
यह नई क्षमता, एलएलएम की मेमोरी और कंप्यूटेशन की ज़रूरतों को ध्यान में रखते हुए किया गया काफ़ी बदलाव लाने वाला काम है. एलएलएम का डेटा, क्लाइंट-साइड मॉडल की तुलना में सौ गुना ज़्यादा है. पूरे वेब स्टैक में मौजूद ऑप्टिमाइज़ेशन की मदद से ऐसा किया जा सकता है. इसमें नए ऑपरेशन, संख्या, कैश मेमोरी, और वेट शेयरिंग की सुविधा शामिल है. सोर्स: "MediaPipe और TensorFlow Lite के साथ, डिवाइस पर बड़े लैंग्वेज मॉडल".
- MediaPipe LLM inference API को इंस्टॉल और इंपोर्ट करें.
- मॉडल डाउनलोड करें. यहां हम Kaggle से डाउनलोड किए गए Gemma 2B का इस्तेमाल करते हैं. Gemma 2B, Google के ओपन-वेट मॉडल में सबसे छोटा मॉडल है.
FilesetResolver
का इस्तेमाल करके, कोड को सही मॉडल फ़ाइलों पर ले जाएं. यह इसलिए ज़रूरी है, क्योंकि जनरेटिव एआई मॉडल में ऐसेट के लिए एक खास डायरेक्ट्री स्ट्रक्चर हो सकता है.- MediaPipe के LLM इंटरफ़ेस की मदद से, मॉडल को लोड और कॉन्फ़िगर करें. मॉडल को इस्तेमाल के लिए तैयार करना: मॉडल की जगह, जवाबों की पसंदीदा लंबाई, और तापमान के साथ क्रिएटिविटी का पसंदीदा लेवल तय करें.
- मॉडल को कोई प्रॉम्प्ट दें (उदाहरण देखें).
- मॉडल के जवाब का इंतज़ार करें.
- रेटिंग के लिए पार्स करें: मॉडल के जवाब से स्टार रेटिंग निकालें.
import { FilesetResolver, LlmInference } from '@mediapipe/tasks-genai';
const mediaPipeGenAi = await FilesetResolver.forGenAiTasks();
const llmInference = await LlmInference.createFromOptions(mediaPipeGenAi, {
baseOptions: {
modelAssetPath: '/gemma-2b-it-gpu-int4.bin',
},
maxTokens: 1000,
topK: 40,
temperature: 0.5,
randomSeed: 101,
});
const prompt = …
const output = await llmInference.generateResponse(prompt);
const int = /\d/;
const ratingAsString = output.match(int)[0];
rating = parseInt(ratingAsString);
प्रॉम्प्ट का उदाहरण
const prompt = `Analyze a product review, and then based on your analysis give me the
corresponding rating (integer). The rating should be an integer between 1 and 5.
1 is the worst rating, and 5 is the best rating. A strongly dissatisfied review
that only mentions issues should have a rating of 1 (worst). A strongly
satisfied review that only mentions positives and upsides should have a rating
of 5 (best). Be opinionated. Use the full range of possible ratings (1 to 5). \n\n
\n\n
Here are some examples of reviews and their corresponding analyses and ratings:
\n\n
Review: 'Stylish and functional. Not sure how it'll handle rugged outdoor use,
but it's perfect for urban exploring.'
Analysis: The reviewer appreciates the product's style and basic
functionality. They express some uncertainty about its ruggedness but overall
find it suitable for their intended use, resulting in a positive, but not
top-tier rating.
Rating (integer): 4
\n\n
Review: 'It's a solid backpack at a decent price. Does the job, but nothing
particularly amazing about it.'
Analysis: This reflects an average opinion. The backpack is functional and
fulfills its essential purpose. However, the reviewer finds it unremarkable
and lacking any standout features deserving of higher praise.
Rating (integer): 3
\n\n
Review: 'The waist belt broke on my first trip! Customer service was
unresponsive too. Would not recommend.'
Analysis: A serious product defect and poor customer service experience
naturally warrants the lowest possible rating. The reviewer is extremely
unsatisfied with both the product and the company.
Rating (integer): 1
\n\n
Review: 'Love how many pockets and compartments it has. Keeps everything
organized on long trips. Durable too!'
Analysis: The enthusiastic review highlights specific features the user loves
(organization and durability), indicating great satisfaction with the product.
This justifies the highest rating.
Rating (integer): 5
\n\n
Review: 'The straps are a bit flimsy, and they started digging into my
shoulders under heavy loads.'
Analysis: While not a totally negative review, a significant comfort issue
leads the reviewer to rate the product poorly. The straps are a key component
of a backpack, and their failure to perform well under load is a major flaw.
Rating (integer): 1
\n\n
Now, here is the review you need to assess:
\n
Review: "${review}" \n`;
सीखने वाली अहम बातें
एआई/एमएल की जानकारी होना ज़रूरी नहीं है. प्रॉम्प्ट को डिज़ाइन करने के लिए बार-बार काम करना पड़ता है, लेकिन बाकी कोड, स्टैंडर्ड वेब डेवलपमेंट है.
क्लाइंट-साइड मॉडल काफ़ी हद तक सटीक होते हैं. इस दस्तावेज़ के स्निपेट चलाने पर, आपको दिखेगा कि बुरे बर्ताव और भावनाओं का विश्लेषण करने से सटीक नतीजे मिलते हैं. Gemma की रेटिंग का ज़्यादातर हिस्सा, Gemini मॉडल की रेटिंग से मेल खाता है. यह रेटिंग, जांची गई कुछ रेफ़रंस समीक्षाओं के लिए दी गई है. इसके सटीक होने की पुष्टि करने के लिए, ज़्यादा टेस्ट की ज़रूरत होती है.
हालांकि, Gemma 2B के लिए प्रॉम्प्ट डिज़ाइन करने में समय लगता है. Gemma 2B एक छोटा एलएलएम है. इसलिए, बेहतर नतीजे पाने के लिए, इसे ज़्यादा जानकारी वाले प्रॉम्प्ट की ज़रूरत होती है. यह जानकारी, Gemini API के लिए ज़रूरी जानकारी से ज़्यादा होनी चाहिए.
अनुमान लगाने में काफ़ी कम समय लगता है. इस दस्तावेज़ से स्निपेट चलाने पर, आपको पता चलेगा कि कई डिवाइसों पर अनुमान लगाने में कम समय लगता है. यह समय, सर्वर के राउंड ट्रिप से भी कम हो सकता है. हालांकि, अनुमान लगाने की स्पीड काफ़ी अलग-अलग हो सकती है. टारगेट किए गए डिवाइस के लिए अच्छी मानक तय करने की ज़रूरत है. हम उम्मीद करते हैं कि WebGPU, WebAssembly, और लाइब्रेरी के अपडेट के साथ, ब्राउज़र का अनुमान तेज़ी से बढ़ता जाएगा. उदाहरण के लिए, Transformers.js v3 में वेब जीपीयू सहायता जोड़ता है. इससे डिवाइस के अंदर कई तरह के अनुमान की रफ़्तार बढ़ सकती है.
डाउनलोड का साइज़ बहुत बड़ा हो सकता है. ब्राउज़र में तेज़ी से अनुमान लगाया जा सकता है, लेकिन एआई मॉडल को लोड करना चुनौती भरा हो सकता है. ब्राउज़र में मौजूद एआई की सुविधा इस्तेमाल करने के लिए, आपको लाइब्रेरी और मॉडल, दोनों की ज़रूरत होती है. इससे आपके वेब ऐप्लिकेशन का डाउनलोड साइज़ बढ़ जाता है.
हालांकि, Tensorflow में टॉक्सिकिटी मॉडल (क्लासिक नैचुरल लैंग्वेज प्रोसेसिंग मॉडल) सिर्फ़ कुछ किलोबाइट का है, जबकि Transformers.js के डिफ़ॉल्ट भावुक विश्लेषण मॉडल जैसे जनरेटिव एआई मॉडल की फ़ाइल का साइज़ 60 एमबी है. Gemma जैसे बड़े लैंग्वेज मॉडल 1.3 जीबी जितने बड़े हो सकते हैं. यह औसत 2.2 एमबी वेब पेज साइज़ से ज़्यादा है. यह साइज़, बेहतर परफ़ॉर्मेंस के लिए सुझाए गए साइज़ से काफ़ी ज़्यादा है. क्लाइंट-साइड जनरेटिव एआई कुछ खास स्थितियों में बेहतर तरीके से काम करता है.
वेब पर जनरेटिव एआई का क्षेत्र तेज़ी से बदल रहा है! आने वाले समय में, छोटे और वेब के लिए ऑप्टिमाइज़ किए गए मॉडल आने की उम्मीद है.
अगले चरण
Chrome, ब्राउज़र में जनरेटिव एआई को चलाने के लिए, किसी दूसरे तरीके का प्रयोग कर रहा है. इसकी जांच करने के लिए, रिलीज़ होने से पहले इस्तेमाल करने की सुविधा देने वाले प्रोग्राम के लिए साइन अप किया जा सकता है.