בזכות נטפרי....
-
נראה לי שמדובר ברובוט שיודע לזהות את אחוזי הגוף שמופיעים בתמונה
-
לתמונות שחור לבן זה בכלל לא עוזר
-
@yits
דגימת צבע עור זו שיטה ישנה ומעפנית... יש לה יותר חסרונות מיתרונות. -
@GolanArt אבל בכתבה כתוב שגויות עוברים ע"ז
-
לא מובן התמונות נסרקות על ידי רובוטים או בצורה אנושית. נראה שהם סותרים את עצמם
-
@Clean מה לא הבנת? הרובוט בודק שהגויות אכן גויות אנושיות ...
-
@עילום הייתי מסכים שנטפרי תוסיף רובוטים שישגיחו ויבקרו את עובדות הגוייות שלה, אך לא להיפך כמו החידושים של ה"מסננים האחרים" שהגוייות ישגיחו על הרובוטים!
-
@GolanArt אמר בבזכות נטפרי....:
אני מניח שמדובר ברובוט חדש שיודע לספר סיפורי סבתא...
עוד לא הומצא הרובוט שיודע לזהות אשה עם כל הניואנסין, וגם לא משהו קרוב לזה...
אני אשמח מאד עם זו התמונה, הלוואי שזה יצליח!אולי כאן הם מסבירים
יש שם סירטון
אבל זה סגור בנטפרי
מעניין מה יש להם להציעאולי יש עצות שיכולים לייעל את נטפרי
בהצלחה -
כן..... ציטוט:
ואנחנו היחידים שיודעים לספק הגנה בזמן אמת ובהתאמה אישית...עפ"ל
-
@עילום אמר בבזכות נטפרי....:
אולי יש עצות שיכולים לייעל את נטפרי
אולי אפשר ללמוד מהם דרכי פירסום ושכנוע.
אם נטפרי ישתמש בהם ינצל עוד הרבה מאינטנט פרוץ וסינונים חלשים.(אגב הוא אמר שיש להם עשרים גויות באוקרינה שבודקות כל התמונות שהרובט לא הצליח להכריע עליו.
לא נראה שיש חיוב להאמין לכל מילה......)סוף דבר אין כמו נטפרי בכמעט כל תחום - נקיות, אינטרנט מהיר ויעיל ושירות לקוחות.
-
הם בסך הכל שכרו קופירייטרים טובים.. זהו.
ערימת שטויות במיץ גזר. לא מיניה ולא מקצתיה.פשוט משקרים את הציבור.
אין שום רובוט בעולם שיודע לסנן תמונות. לא יתכן במציאות דבר כזה.תשבו אתם בעצמכם על מחשבים מאותרגים, ותבדקו.
כמעט אותו הזבל!!! ללא שינוי משמעותי בכלל. -
@למדן-וידען אמר בבזכות נטפרי....:
כן..... ציטוט:
ואנחנו היחידים שיודעים לספק הגנה בזמן אמת ובהתאמה אישית...עפ"ל
@אורי אמר בבזכות נטפרי....:
(אגב הוא אמר שיש להם עשרים גויות באוקרינה שבודקות כל התמונות שהרובט לא הצליח להכריע עליו.
לא נראה שיש חיוב להאמין לכל מילה......)לא הבנתי
הוידיאו שם פתוח לכם???? -
@עילום מתחת לוידאו יש כתבה כתובה..
-
@רמה-פלוס אמר בבזכות נטפרי....:
הם בסך הכל שכרו קופירייטרים טובים.. זהו.
ערימת שטויות במיץ גזר. לא מיניה ולא מקצתיה.פשוט משקרים את הציבור.
אין שום רובוט בעולם שיודע לסנן תמונות. לא יתכן במציאות דבר כזה.תשבו אתם בעצמכם על מחשבים מאותרגים, ותבדקו.
כמעט אותו הזבל!!! ללא שינוי משמעותי בכלל.מה שאתה אומר הוא פשוט לא נכון, אפשר ללמד את המחשב לנתח תמונות ולסנן באחוזים גבוהים של הצלחה.
אין לי מושג מה המצב באתרוג ואם באמת מצליחים לעשות את מה שהם מדברים עליו בצורה טובה -
@tr אמר בבזכות נטפרי....:
@רמה-פלוס אמר בבזכות נטפרי....:
הם בסך הכל שכרו קופירייטרים טובים.. זהו.
ערימת שטויות במיץ גזר. לא מיניה ולא מקצתיה.פשוט משקרים את הציבור.
אין שום רובוט בעולם שיודע לסנן תמונות. לא יתכן במציאות דבר כזה.תשבו אתם בעצמכם על מחשבים מאותרגים, ותבדקו.
כמעט אותו הזבל!!! ללא שינוי משמעותי בכלל.מה שאתה אומר הוא פשוט לא נכון, אפשר ללמד את המחשב לנתח תמונות ולסנן באחוזים גבוהים של הצלחה.
אין לי מושג מה המצב באתרוג ואם באמת מצליחים לעשות את מה שהם מדברים עליו בצורה טובהוהא ראיה שבגוגל אתה יכול לחפש תמונות לפי תמונה
-
@tr אמר בבזכות נטפרי....:
מה שאתה אומר הוא פשוט לא נכון, אפשר ללמד את המחשב לנתח תמונות ולסנן באחוזים גבוהים של הצלחה.
אין לי מושג מה המצב באתרוג ואם באמת מצליחים לעשות את מה שהם מדברים עליו בצורה טובה@chocolate אמר בבזכות נטפרי....:
והא ראיה שבגוגל אתה יכול לחפש תמונות לפי תמונה
אני בדקתי קצת, לא כותב סתם. אז ככה:
מה שיש לגוגל ביד הוא אלגוריתם שמחפש באותה הדרך שבה המח רואה תמונה של ציפור ואומר לעצמו 'זו ציפור', הם עקבו אחרי הדרך הזו, כי גם למח מה שיש בהתחלה זו מפת צבעים בלבד. הדרך משם אל התוצאה הפשוטה 'זו ציפור' (זו דוגמא של גוגל עצמם) היא מאד מורכבת - כך על פי דברי גוגל. אני מניח שלאתרוג אין את המשאבים שיש לגוגל בשביל לפתח דברים כאלה, ואני מניח שגוגל משאירים דברים כאלו לעצמם ולא משתפים בהם את אתרוג..
לפי מה שאני מבין, גם במקום שגוגל נמצאים, הדרך מכאן ולתת למחשב לבדוק אם יש בתמונה איזה אלמנט בעייתי הדרך מאד, אבל מאד רחוקה. -
@5566NEWbrs אמר בבזכות נטפרי....:
@tr אמר בבזכות נטפרי....:
מה שאתה אומר הוא פשוט לא נכון, אפשר ללמד את המחשב לנתח תמונות ולסנן באחוזים גבוהים של הצלחה.
אין לי מושג מה המצב באתרוג ואם באמת מצליחים לעשות את מה שהם מדברים עליו בצורה טובה@chocolate אמר בבזכות נטפרי....:
והא ראיה שבגוגל אתה יכול לחפש תמונות לפי תמונה
אני בדקתי קצת, לא כותב סתם. אז ככה:
מה שיש לגוגל ביד הוא אלגוריתם שמחפש באותה הדרך שבה המח רואה תמונה של ציפור ואומר לעצמו 'זו ציפור', הם עקבו אחרי הדרך הזו, כי גם למח מה שיש בהתחלה זו מפת צבעים בלבד. הדרך משם אל התוצאה הפשוטה 'זו ציפור' (זו דוגמא של גוגל עצמם) היא מאד מורכבת. כך על פי דברי גוגל. אני מניח שלאתרוג אין את המשאבים שיש לגוגל בשביל לפתח דברים כאלה, ואני מניח שגוגל משאירים דברים כאלו לעצמם ולא משתפים את אתרוג עם הדברים האלה..
לפי מה שאני יודע על הנושא, הדרך מכאן ולתת למחשב לבדוק אם יש בתמונה איזה אלמנט בעייתי הדרך מאד, אבל מאד רחוקה.אלא אם כן גוגל או מיקרוסופט שיחררו את הספריה לשימוש חופשי.
https://www.tensorflow.org/ -
@5566NEWbrs החיפוש בגוגל תמונות הוא גם לפי הכיתוב שבסביבות התמונה
-
@shraga יש אופציה בגוגל תמונות שאתה מעלה תמונה וזה מחפש דברים דומים, אתה לא מכניס טקסט כלל.
-
לקוראי אנגלית יש כאן הסבר מעובד גוגל על דרכם לזהה תמונות:
Question:
How does google image search engine work?
I am mainly interested in image retrieval based on the language input. How does it know that the image represent the query well? For instance when I type 'country road' I get pretty accurate results at least in the first page. I am also glad to see references.Answer by Sam Gendler
Sam Gendler, Engineer in search infrastructure at Google, Inc.
Written 7 May
I am one of the folks responsible for figuring out the list of terms to associate with every image that goes into the index. Obviously, there is a limit to the technical details I can provide as to how it is done, but I can speak in generalities that are well known and I'll mix in some ideas that may have been discarded or which are not yet implemented, too.Things we definitely know about an image -
The image data itself, including any metadata stored in the image file.
The URL of the image. URLs can be revealing unless they say things like IMG1095.JPG. But if it says Sunset_in_Hawaii.jpg, you've now got some useful info.
The URL of the page it is on.
The content of the page/site it is on, and which words are close to the image or references to the image.
If the image is also a link in the page, we know the URL it links to, as well as any words in the page which link to the same place.
if a page provides content for the visually impaired to associate with the image, we can definitely read that.
Things we can figure out about an image -We can run the image through a character recognition routine to extract any words out of signage visible in the photo (or to read the text of an image meme, for example)
We can recognize any famous landmarks (and we have sophisticated techniques for recognizing them from any angle)
We can recognize faces - of celebrities and famous people or, if talking about your private photos being indexed in the google photos search, we can recognize your family and friends from other photos. Even if we don't have names, we can potential spot familiar faces and group them together in the index. We can also recognize pets.
We can recognize objects - vehicles, buildings, animal species
We can find other instances of the same image in the index, and see what terms we associated with those.
The list of potential things we could extract from the binary data of a photo and associated page is pretty long and varied, but some things obvious deliver higher quality terms than others. The entire content of the page isn't necessarily that relevant. The caption directly under the photo, on the other hand, is tremendously relevant. Similarly, reading the text of a t-shirt that appears in a photo isn't nearly as useful as reading the street signs and store signs, which can easily allow us to figure out a location (remember, street view knows what pretty much every street on the planet looks like, if you have a way to look up 'similar' images, and that is sure to be something Google has invested heavily in, no?
So when we are looking for things to put in the index, we build up a big long list of things to associate with a photo, along with some information about our confidence that those terms accurately reflect the content of the photo. We can adjust those scores over time by determining how many people click on an image after searching for a particular term. If it gets lots of clicks, then it is probably reasonable to crank the score for that term way up. If it never gets clicked, relative to other photos near it on the results page, we can lower it.When someone issues a request, a lot of stuff happens. First, we have to translate natural language into a search query the computer systems actually understand. Then we have to figure out the set of photos that have terms that match the query. Then we have to rank those photos according to relevance, based on the scores of the terms that match. Then we build up a web page to display those results and send that to the user.
Now, if you want information about HOW we recognize faces and landmarks and such, I would recommend searching through Research at Google to see what the company has made public about our algorithms and data structures for landmark recognition, optical character recognition, face recognition, etc. Lots of our research gets published, eventually, though sometimes only after it no longer provides a competitive advantage, I imagine (I'm not involved in that decision making, so I don't know). Theres lots of AI and fancy math going on, and much of it is proprietary and is google's special sauce, so employees clearly cannot speak about it without permission.