Ένα νέο σύστημα τεχνητής νοημοσύνης, το οποίο αναπτύχθηκε από ερευνητές στο Σιάτλ, έχει σχεδιαστεί για να ανιχνεύει, να αξιολογεί, και να εμποδίζει αμέσως τις γυμνές εικόνες που θεωρούνται αρκετά προκλητικές ώστε να εμφανίζονται.
Δημιουργήθηκε λοιπόν ένα ψεύτικος λογαριασμός στο Twitter , όπου στέλνανε διαφορετικές γυμνές εικόνες ούτως ώστε το σύστημα να μάθει να τις εντοπίζει και να τις διαγράφει.
Όσον αφορά την άμεση ταυτοποίηση των γεννητικών οργάνων, η τεχνολογία λειτουργεί πολύ καλά. Ωστόσο, προς το παρόν, απέχει πολύ ακόμη από την ολοκλήρωση, όπως αναφέρθηκε μετά από από αρκετές αποτυχημένες προσπάθειες να εντοπιστεί ένα αρσενικό όργανο που ήταν μερικώς καλυμμένο με διαφορετικά πράγματα.
Ωστόσο, μπορεί κανείς απλώς να κλείσει κατευθείαν και να διαγράψει το μήνυμα αν πραγματικά δεν θέλει να δει τις ανεπιθύμητες εικόνες που μπορεί να περιέχει. Αλλά πρέπει να σκεφτούμε ότι η εικόνα θα εξακολουθεί να φαίνεται τουλάχιστον μια φορά ανεξάρτητα, όταν δηλαδή ανοίξει το μήνυμα, αν χρησιμοποιήσουμε αυτή τη μέθοδο. Αυτό που στοχεύει το συγκεκριμένο σύστημα τεχνητής νοημοσύνης είναι να εντοπίσει την εικόνα, πριν το μήνυμα ανοιχτεί ακόμη, ή ακόμη και προτού να θεωρήσετε ότι το όνομα του συνημμένου είναι αρκετά αξιοπερίεργο για να το αγνοήσετε.
Μία τέτοια εικόνα δε μπορεί να προκαλέσει βλάβη, αλλά εξακολουθεί να προκαλεί μια δυσαρέσκεια προς τον άνθρωπο που τη βλέπει, ειδικά όταν τη λαμβάνει χωρίς τη συναίνεσή του.
Ωστόσο, η ίδια η έρευνα συνεχίζεται, και η ομάδα της ανακοίνωσε ότι θα μοιραστεί τα ερευνητικά δεδομένα μόλις ολοκληρωθεί.
Με πληροφορίες από z6Mag

CSIi News

Latest posts by CSIi News (see all)
- TRACeD Cyber Guardians | Πρόσκληση εκδήλωσης ενδιαφέροντος: Εμπειρογνώμονες για την υποστήριξη της λειτουργίας διαδικτυακής πλατφόρμας κατά της έμφυλης βίας - 22/04/2023
- Αλλαγή στον νόμο περί ηλεκτρονικών απατών (phishing) έπειτα από παρέμβαση των τραπεζών - 03/02/2023
- CSI Ιnstitute: Ο Μανώλης Σφακιανάκης προειδοποιεί για “τσουνάμι” ψεύτικων επενδύσεων στο διαδίκτυο - 20/01/2023