"Η τεχνητή νοημοσύνη και οι γενετικές τεχνολογίες δεν μειώνουν την ευθύνη στην ιατρική την καθιστούν απλά πιο σύνθετη. Και ακριβώς γι’ αυτό, η ύπαρξη σαφών κανόνων, συνεχούς επικαιροποίησης και ισχυρών δικλείδων ασφαλείας, συμπεριλαμβανομένων των πιστοποιήσεων, δεν αποτελεί εμπόδιο στην καινοτομία, αλλά αναγκαία προϋπόθεση για την ασφαλή και αξιόπιστη αξιοποίησή της, σημειώνει σε συνέντευξη που παράθεσε στο iatronet.gr η Δικηγόρος Υγείας, Φαρμάκου, Ιατρικής Τεχνολογίας και Νομική Σύμβουλος στον Σ.Ι.Γ.Ε (Σύνδεσμο Ιατρικών Γενετιστών Ελλάδας) κα. Ιωάννα Μιχαλοπούλου.
Αν έπρεπε να ξεκινήσετε με μία κεντρική ιδέα, ποιο είναι σήμερα το βασικό διακύβευμα της τεχνητής νοημοσύνης στη γενετική;
Ιωάννα Μιχαλοπούλου: Το βασικό διακύβευμα είναι ότι η τεχνολογία προχωρά ήδη γρηγορότερα από τις κλασικές διοικητικές και κανονιστικές αντανακλάσεις μας. Η AI μπαίνει πλέον στην κλινική γενετική, στην ερμηνεία παραλλαγών, στην υποστήριξη αποφάσεων και στην αξιοποίηση μεγάλων γονιδιωματικών συνόλων δεδομένων· άρα δεν μιλάμε για ένα περιθωριακό εργαλείο, αλλά για μια τεχνολογία που επηρεάζει τον πυρήνα της ιατρικής πράξης. Γι’ αυτό δεν αρκεί να θαυμάζουμε την καινοτομία· πρέπει να διασφαλίζουμε ότι εξελίσσεται μέσα σε ένα πλαίσιο αρχών και κυρίως νομιμότητας, λογοδοσίας και εμπιστοσύνης.
Γιατί λέτε ότι η γενετική είναι ιδιαίτερα ευαίσθητος χώρος για ρύθμιση;
Ιωάννα Μιχαλοπούλου: Επειδή τα γενετικά δεδομένα δεν είναι ένα απλό σύνολο δεδομένων υγείας. Ο GDPR τα ορίζει ως δεδομένα που παρέχουν μοναδικές πληροφορίες για τη φυσιολογία ή την υγεία ενός προσώπου και τα εντάσσει στις ειδικές κατηγορίες δεδομένων, των οποίων η επεξεργασία καταρχήν απαγορεύεται, εκτός αν υπάρχει σαφής εξαίρεση. Αυτό σημαίνει ότι η γενετική συνδυάζει υψηλή επιστημονική αξία με υψηλή ρυθμιστική ευαισθησία.
Από ποιο σημείο και μετά ο γενετιστής παύει να είναι απλός χρήστης τεχνολογίας και γίνεται ο ίδιος ρυθμιζόμενος παράγοντας;
Ιωάννα Μιχαλοπούλου: Από τη στιγμή που χρησιμοποιεί το εργαλείο σε πραγματικό κλινικό ή διαγνωστικό περιβάλλον. Τότε δεν έχει απέναντί του μόνο την απόδοση του λογισμικού, αλλά και τις υποχρεώσεις που απορρέουν παράλληλα από τον GDPR, από το κανονιστικό πλαίσιο των ιατροτεχνολογικών και φυσικά και τον AI Act. Με απλά λόγια: η νομοθεσία δεν ρυθμίζει μόνο το παραγόμενο αποτέλεσμα αλλά και την ίδια τη χρήση του.
Ποια είναι η βάση νομιμότητας όταν ο γενετιστής επεξεργάζεται γενετικά δεδομένα και θέλει ενδεχομένως να τα χρησιμοποιήσει περαιτέρω σε AI εφαρμογές;
Ιωάννα Μιχαλοπούλου: Δεν υπάρχει μία αυτόματη απάντηση για όλες τις περιπτώσεις. Για τα γενετικά δεδομένα δεν αρκεί μια γενική βάση του άρθρου 6 GDPR· χρειάζεται και εξαίρεση του άρθρου 9, όπως ρητή συγκατάθεση, ιατρική διάγνωση ή παροχή περίθαλψης, δημόσιο συμφέρον στη δημόσια υγεία ή επιστημονική έρευνα με κατάλληλες εγγυήσεις. Αν μάλιστα τα δεδομένα που συλλέχθηκαν αρχικά για διάγνωση επαναχρησιμοποιηθούν για εκπαίδευση ή βελτίωση AI μοντέλου, πρέπει να ελεγχθεί πολύ προσεκτικά ο σκοπός, η συμβατότητα της περαιτέρω χρήσης και οι εγγυήσεις του άρθρου 89.
Πότε γίνεται πραγματικά κρίσιμη μια DPIA;
Ιωάννα Μιχαλοπούλου: Η DPIA δεν αποτελεί μια απλή γραφειοκρατική προϋπόθεση, αλλά εργαλείο πρόβλεψης κινδύνων πριν ξεκινήσει η επεξεργασία. Ο GDPR τη ζητά όταν η χρήση νέων τεχνολογιών είναι πιθανό να δημιουργήσει υψηλό κίνδυνο για τα δικαιώματα και τις ελευθερίες των φυσικών προσώπων, ιδίως όταν έχουμε αυτοματοποιημένη αξιολόγηση ή μεγάλης κλίμακας επεξεργασία ειδικών κατηγοριών δεδομένων. Και αυτό γίνεται ακόμη πιο ουσιαστικό στη γενετική, γιατί ο ίδιος ο AI Act προβλέπει ότι οι deployers μπορούν και πρέπει να αξιοποιούν τις πληροφορίες του provider ώστε να εκπληρώνουν την υποχρέωσή τους για DPIA.
Πολλοί θεωρούν ότι η ψευδωνυμοποίηση λύνει το πρόβλημα. Το λύνει πραγματικά;
Ιωάννα Μιχαλοπούλου: Όχι. Η ψευδωνυμοποίηση είναι πολύτιμη δικλείδα ασφαλείας, αλλά δεν μετατρέπει τα δεδομένα σε ανώνυμα. Το ίδιο το EDPB είναι ξεκάθαρο: τα ψευδωνυμοποιημένα δεδομένα παραμένουν προσωπικά δεδομένα και συνεχίζουν να υπάγονται στον GDPR. Άρα στη γενετική η ψευδωνυμοποίηση μειώνει κινδύνους, δεν εξαφανίζει όμως τις νομικές υποχρεώσεις ούτε αίρει από μόνη της την ανάγκη για νόμιμη βάση, διαφάνεια και αναλογικότητα.
Αφού ένα σύστημα έχει CE mark, γιατί λέτε ότι αυτό δεν αρκεί;
Ιωάννα Μιχαλοπούλου: Επειδή το CE mark σημαίνει ότι το προϊόν θεωρείται σύμφωνο με τις σχετικές απαιτήσεις κατά την κανονιστική του προυπόθεση· δεν σημαίνει ότι κάθε πιθανή χρήση του είναι αυτομάτως νόμιμη, πρόσφορη ή κλινικά αποδεκτή. Το CE marking δείχνει συμμόρφωση με τις ουσιώδεις απαιτήσεις, όχι μια γενική σήμανση για κάθε σενάριο χρήσης. Με άλλα λόγια, η πιστοποίηση είναι αναγκαία βάση, αλλά δεν υποκαθιστά τον έλεγχο του σκοπού, του περιβάλλοντος χρήσης, της ποιότητας της ανθρώπινης εποπτείας και της νομιμότητας της επεξεργασίας δεδομένων.
Τι σημαίνει στην πράξη το intended purpose και πού αρχίζει ο κίνδυνος του off-label;
Ιωάννα Μιχαλοπούλου: Το intended purpose είναι η χρήση που δηλώνει ο κατασκευαστής στο label, στις οδηγίες χρήσης, στο προωθητικό υλικό και, κατά περίπτωση, στην κλινική ή performance evaluation. Στο πεδίο των ιατροτεχνολογικών και των IVD αυτό δεν είναι λεπτομέρεια: πάνω σε αυτό χτίζονται η ταξινόμηση, η αξιολόγηση συμμόρφωσης και η ίδια η νομιμότητα διάθεσης. Άρα, όταν ένα εργαστήριο ή ένας επαγγελματίας υγείας απομακρύνεται ουσιωδώς από αυτόν τον σκοπό, το νομικό ρίσκο αυξάνεται αισθητά, γιατί πλέον κινείται έξω από τις παραδοχές πάνω στις οποίες πιστοποιήθηκε το εργαλείο.
Τι αλλάζει με τον AI Act για τον ίδιο τον χρήστη και όχι μόνο για τον πάροχο του συστήματος;
Ιωάννα Μιχαλοπούλου: Ο AI Act βάζει τέλος στην αντίληψη ότι υποχρεώσεις έχουν μόνο όσοι δομούν τα συστήματα. Οι deployers υψηλού κινδύνου οφείλουν να τα χρησιμοποιούν σύμφωνα με τις οδηγίες, να διασφαλίζουν επαρκή AI literacy του προσωπικού τους, να κρατούν logs στον βαθμό που τα ελέγχουν, να παρακολουθούν τη λειτουργία τους και να αναστέλλουν ή να αναφέρουν τη χρήση όταν διαπιστώνουν σοβαρό κίνδυνο ή περιστατικό. Παράλληλα, η ανθρώπινη εποπτεία δεν είναι αφηρημένη ιδέα. H Πράξη Τεχνητής Νοημοσύνης χρειάζεται ανθρώπους που να κατανοούν τα όρια του συστήματος, να εντοπίζουν ανωμαλίες και, αν χρειαστεί, να
αγνοούν ή να ανατρέπουν το output. Ως προς το χρονοδιάγραμμα, ο AI Act εφαρμόζεται σταδιακά: τα Chapters I και II ισχύουν ήδη από 2 Φεβρουαρίου 2025, το βασικό σώμα από 2 Αυγούστου 2026, ενώ οι υποχρεώσεις για high-risk συστήματα ενεργοποιούνται μετά από την πρόσφατη υιοθέτηση του Digital Omnibus από 2 Αυγούστου 2028.
Τι αλλάζει στο ζήτημα της ευθύνης αν υπάρξει ζημία;
Ιωάννα Μιχαλοπούλου: Η μεγάλη αλλαγή είναι ότι η νέα ευρωπαϊκή Οδηγία Ευθύνης Ελαττωματικών Προϊόντων αντιμετωπίζει ρητά το software, άρα και τα AI συστήματα, ως προϊόντα, και λαμβάνει υπόψη ότι ένα πρόβλημα μπορεί να εμφανιστεί και μετά τη διάθεση, για παράδειγμα μέσω ενός update ή έλλειψης του αναγκαίου update. Προβλέπει επίσης τεκμήρια που μπορούν να διευκολύνουν τον ζημιωθέντα όταν υπάρχει υπερβολική τεχνική ή επιστημονική πολυπλοκότητα. Άρα, η ευθύνη γίνεται πιο σύνθετη και επιμερίζεται υπό προϋποθέσεις σε όλη την εφοδιαστική αλυσίδα καθώς δεν αφορά πάντα μόνο τον κατασκευαστή.
Πόσο σοβαρό είναι το πρόβλημα της μεροληψίας και της μη αντιπροσωπευτικότητας στα γενομικά datasets;
Ιωάννα Μιχαλοπούλου: Θεωρώ ότι αποτελεί δομικό πρόβλημα και όχι λεπτομέρεια βελτιστοποίησης. Η πρόσφατη βιβλιογραφία εξακολουθεί να δείχνει ισχυρή υπεραντιπροσώπευση ευρωπαϊκής καταγωγής στα GWAS datasets, ενώ οι πολυγονιδιακοί δείκτες έχουν μικρότερη φορητότητα και ακρίβεια σε άλλες γενετικές καταγωγές. Γι’ αυτό το άρθρο 10 του AI Act επιμένει σε σχετικά, επαρκώς αντιπροσωπευτικά και, στον μέγιστο δυνατό βαθμό, απαλλαγμένα από σφάλματα δεδομένα, καθώς και σε μέτρα εντοπισμού και μετριασμού bias. Αν δεν λυθεί αυτό, υπάρχει πραγματικός κίνδυνος να μεταφέρουμε τις ήδη υπάρχουσες ανισότητες μέσα στην ίδια την ψηφιακή ιατρική.
Μήπως, όμως, όλη αυτή η ρύθμιση τελικά φρενάρει την καινοτομία;
Ιωάννα Μιχαλοπούλου: Προσωπικά θα έλεγα το αντίθετο. Η καλή ρύθμιση δεν σκοτώνει την καινοτομία, τη νομιμοποιεί κοινωνικά και τη σταθεροποιεί. Αν οι επαγγελματίες υγείας και οι ασθενείς δεν έχουν εμπιστοσύνη στο πώς συλλέγονται τα δεδομένα, πώς ελέγχονται τα outputs και ποιος λογοδοτεί όταν κάτι πάει στραβά, η υιοθέτηση της τεχνολογίας δεν θα επιταχυνθεί απλά θα σταματήσει από έλλειψη εμπιστοσύνης. Και αυτό ακριβώς προσπαθεί να δείχνει η εξελικτική ρυθμιστική πορεία της ευρωπαϊκής νομοθεσίας με τις εφαρμοστικές οδηγίες του AI Act, του MDR/IVDR, τις προβλέψεις του European Health Data Space να εφαρμόζεται σε φάσεις και τα γενομικά δεδομένα να εντάσσονται αργότερα στη δευτερογενή χρήση. Το πλαίσιο δηλαδή επικαιροποιείται όσο αλλάζει η ίδια η τεχνολογία με το πλέον πρόσφατο παράδειγμα να είναι η απλούστευση της νομοθεσίας και τη ψήφιση του Digital Omnibus από το Ευρωπαϊκό Κοινοβούλιο.
Αν θέλατε να αφήσετε ένα τελευταίο μήνυμα στους γενετιστές αλλά και στο ευρύτερο κοινό, ποιο θα ήταν;
Ιωάννα Μιχαλοπούλου: Καταρχήν, ότι χρειαζόμαστε δικλείδες ασφαλείας παντού. Κατά τη συλλογή και χρήση των δεδομένων, τον σχεδιασμό των μοντέλων, την ανθρώπινη εποπτεία, την παρακολούθηση μετά τη διάθεση, την αναφορά περιστατικών και βεβαίως τις πιστοποιήσεις. Οι πιστοποιήσεις και το CE mark είναι αναγκαία, αλλά δεν αρκούν από μόνα τους. Η τεχνητή νοημοσύνη στην ιατρική δεν αφαιρεί την ευθύνη από τον επαγγελματία υγείας, την κάνει πιο σύνθετη και απαιτεί από όλους μεγαλύτερη εγρήγορση.
Ειδήσεις υγείας σήμερα
Θετική λίστα;
Υπάρχουν τροφές που βοηθούν με την αποφρακτική άπνοια ύπνου;
Γυναικεία μακροζωία: Τα νέα δεδομένα μετά τα 40