tips-to-prevent-hackers-FB-min

Προγράμματα τεχνητής νοημοσύνης που ελέγχουν ιατρικές εικόνες για ενδείξεις καρκίνου μπορούν να εξαπατηθούν από hacks και κυβερνοεπιθέσεις, σύμφωνα με μια νέα μελέτη .

Οι ερευνητές απέδειξαν ότι ένα πρόγραμμα υπολογιστή, επηρεασμένο από Hackers, μπορεί προσθέσει ή να αφαιρέσει στοιχεία καρκίνου από τις μαστογραφίες και αυτές οι αλλαγές να ξεγελάσουν τόσο ένα εργαλείο τεχνητής νοημοσύνης όσο και τους ακτινολόγους.

Αυτό θα μπορούσε να οδηγήσει σε λανθασμένη διάγνωση. Ένα πρόγραμμα τεχνητής νοημοσύνης που βοηθά στον έλεγχο της μαστογραφίας μπορεί να πει ότι μια σάρωση είναι υγιής όταν υπάρχουν πραγματικά σημάδια καρκίνου ή λανθασμένα να λέει ότι ένας ασθενής έχει καρκίνο όταν είναι πραγματικά απαλλαγμένος από καρκίνο. Η νέα μελέτη προστίθεται σε έναν αυξανόμενο όγκο ερευνών που υποδηλώνουν ότι οι οργανισμοί υγειονομικής περίθαλψης πρέπει να είναι προετοιμασμένοι για αυτές.

Οι hackers στοχεύουν ολοένα και περισσότερο νοσοκομεία και ιδρύματα υγειονομικής περίθαλψης με κυβερνοεπιθέσεις. Τις περισσότερες φορές, αυτές οι επιθέσεις αφαιρούν δεδομένα ασθενών (τα οποία είναι πολύτιμα στη μαύρη αγορά) ή κλειδώνουν τα συστήματα υπολογιστών ενός οργανισμού έως ότου οι οργανισμοί πληρώσουν λύτρα. Και οι δύο αυτοί τύποι επιθέσεων μπορούν να βλάψουν τους ασθενείς με το να καθυστερούν τις επεμβάσεις σε ένα νοσοκομείο και να δυσκολεύουν τους εργαζόμενους στον τομέα της υγείας να παρέχουν καλή φροντίδα.

Ωστόσο, οι ειδικοί ανησυχούν όλο και περισσότερο για την μεγάλη πιθανότητα πιο άμεσων επιθέσεων στην υγεία των ανθρώπων. Ερευνητές ασφαλείας έχουν δείξει ότι οι hackers μπορούν να εισβάλουν εξ αποστάσεως σε αντλίες ινσουλίνης που είναι συνδεδεμένες στο Διαδίκτυο και να χορηγούν επικίνδυνες δόσεις του φαρμάκου, για παράδειγμα.

Σε αυτήν την κατηγορία εμπίπτουν επίσης οι παρεμβάσεις που μπορούν να αλλάξουν τις ιατρικές εικόνες και να επηρεάσουν τη διάγνωση. Στη νέα μελέτη για τις μαστογραφίες, που δημοσιεύτηκε στο Nature Communications , μια ερευνητική ομάδα από το Πανεπιστήμιο του Πίτσμπουργκ σχεδίασε ένα πρόγραμμα υπολογιστή που θα έκανε τις αξονικές τομογραφίες μαστών που αρχικά φαινόταν ότι δεν είχαν σημάδια καρκίνου σαν να ήταν καρκινικοί και που θα έκανε τις μαστογραφίες τις καρκινικές να φαίνεται ότι δεν έχουν σημάδια καρκίνου. Στη συνέχεια τροφοδότησαν τις παραποιημένες εικόνες σε ένα πρόγραμμα τεχνητής νοημοσύνης εκπαιδευμένο να εντοπίζει σημάδια καρκίνου του μαστού και ζήτησαν από πέντε ακτινολόγους να αποφασίσουν εάν οι εικόνες ήταν αληθινές ή ψεύτικες.

Περίπου το 70% των επεξεργασμένων εικόνων ξεγέλασαν το πρόγραμμα – δηλαδή, η τεχνητή νοημοσύνη είπε λανθασμένα ότι οι εικόνες που χειραγωγήθηκαν για να φαίνονται απαλλαγμένες από καρκίνο ήταν απαλλαγμένες από καρκίνο και το αντίθετο. Όσο για τους ακτινολόγους, κάποιοι ήταν καλύτεροι στο να εντοπίζουν πλαστές εικόνες από άλλους. Η ακρίβειά τους στoν εντοπισμό των ψεύτικων εικόνων κυμαινόταν ευρέως, από 29-71%.

Άλλες μελέτες έχουν επίσης δείξει την πιθανότητα μια κυβερνοεπίθεση σε ιατρικές εικόνες να οδηγήσει σε εσφαλμένες διαγνώσεις. Το 2019, μια ομάδα ερευνητών στον τομέα της κυβερνοασφάλειας έδειξε ότι οι hackers μπορούσαν να προσθέσουν ή να αφαιρέσουν στοιχεία καρκίνου του πνεύμονα από αξονικές τομογραφίες. Αυτές οι αλλαγές ξεγέλασαν επίσης τόσο ακτινολόγους όσο και τα προγράμματα τεχνητής νοημοσύνης.

Δεν υπήρξαν πολλές περιπτώσεις όπου συνέβη ένα hack όπως αυτό. Υπάρχουν όμως μερικοί λόγοι για τους οποίους ένας κακόβουλος χρήστης μπορεί να θέλει να χειριστεί πράγματα όπως μαστογραφίες ή σαρώσεις καρκίνου του πνεύμονα.

  • Για να στοχεύσει έναν συγκεκριμένο ασθενή, όπως μια πολιτική προσωπικότητα.
  • Για να αλλάξει τις δικές του σαρώσεις για να πάρει χρήματα από την ασφαλιστική του εταιρεία ή να εγγραφεί για πληρωμές αναπηρίας. 
  • Η πώληση δεδομένων ασθενών, πληρώνεται αδρά στη μαύρη αγορά.
  • Ίσως επίσης να πειράζουν τις εικόνες τυχαία και να αρνηθούν να σταματήσουν να τις αλλοιώνουν έως ότου ένα νοσοκομείο πληρώσει λύτρα.

Οι οργανισμοί υγειονομικής περίθαλψης και οι άνθρωποι που σχεδιάζουν μοντέλα τεχνητής νοημοσύνης θα πρέπει να γνωρίζουν ότι είναι πιθανές οι εισβολές που αλλάζουν τις ιατρικές σαρώσεις. Στα μοντέλα θα πρέπει να παρουσιάζονται χειροποίητες εικόνες κατά τη διάρκεια της εκπαίδευσής τους για να τους μάθουν να εντοπίζουν ψεύτικες, δήλωσε ο συγγραφέας της μελέτης Shandong Wu, αναπληρωτής καθηγητής ακτινολογίας, βιοϊατρικής πληροφορικής και βιομηχανικής στο Πανεπιστήμιο του Πίτσμπουργκ. Οι ακτινολόγοι μπορεί επίσης να χρειαστεί να εκπαιδευτούν για να αναγνωρίζουν ψεύτικες εικόνες.

«Ελπίζουμε ότι αυτή η έρευνα θα κάνει τους ανθρώπους να σκεφτούν την ασφάλεια του ιατρικού μοντέλου AI και τι μπορούμε να κάνουμε για να αμυνθούμε από πιθανές επιθέσεις», είπε ο Wu.

 

 

 

via