Ελληνικά | English | Δευτέρα, 9 Μαρτίου 2026
Τσιρίδειον Ίδρυμα
Αναζήτηση:   |   Εξειδικευμένη Αναζήτηση   |   Επικοινωνία   |   Αρχική Σελίδα
Το Ίδρυμα
Το Μουσείο
Εκθέματα
Δραστηριότητες
Νέα
Δελτία Τύπου
Δημοσιεύματα
Διεθνή Νέα
Επιστημονικά Νέα
Αφιερώματα
Εκδόσεις
Πολυμέσα
Συνδέσεις
Ηλεκτρονική Λίστα
Κριτικές
Επικοινωνία

Το μέλλον που φοβόμασταν είναι ήδη εδώ



Οι κοινωνίες είναι απροετοίμαστες για τις αλλαγές που φέρνει η τεχνητή νοημοσύνη. Η σύγκρουση της αμερικανικής κυβέρνησης με την εταιρεία Anthropic ποδεικνύει ότι υπάρχουν κανόνες στη χρήση της και οι χρήστες δεν κινούνται πάντα βάσει ηθικής.

 

Με αφορμή τη σύγκρουση του αμερικανικού Πενταγώνου με την εταιρεία Anthropic, που παράγει την τεχνητή νοημοσύνη Claude, ο αρθρογράφος Έζρα Κλάιν, των New York Times, κάνει μια διαπίστωση: Είμαστε απροετοίμαστοι για αυτό που πιθανότατα έχει ήδη έρθει. Και η τεχνητή νοημοσύνη μπορεί να γίνει επικίνδυνο εργαλείο στα χέρια ανθρώπων –και ηγετών- που δεν ακολουθούν ηθικούς κανόνες.

 

Όπως επισημαίνει, τα ερωτήματα που ετίθεντο στην αρχή για την τεχνητή νοημοσύνη, ήταν: Τι θα συμβεί αν η Τεχνητή Νοημοσύνη αρχίσει να αντικαθιστά τους εργαζόμενους; Τι θα συμβεί αν γίνει ικανή να γράφει τον δικό της κώδικα; Τι θα συμβεί αν αρχίσει να εξαπατά όσους δοκιμάζουν τις δυνατότητές της; Τι θα συμβεί αν οι κυβερνήσεις τη χρησιμοποιήσουν για επιτήρηση και πόλεμο; Τι θα συμβεί αν οι κυβερνήσεις αποφασίσουν ότι είναι τόσο ισχυρή που χρειάζονται τον έλεγχο των εργαστηρίων που την αναπτύσσουν;

 

Η ανάλυση μαζικών εμπορικών δεδομένων δεν είναι κατά γράμμα επιτήρηση, αλλά με την ΑΙ, μπορεί κάλλιστα να καταστεί

 

Πλέον, επισημαίνει ο Κλάιν, διαπιστώσαμε ότι η τεχνητή νοημοσύνη κάνει όλα τα παραπάνω. Και αντικαθιστά εργαζόμενους, και γράφει δικό της κώδικα, και αλλάζει συμπεριφορά όταν αξιολογείται.

 

Και φυσικά, υπάρχει απάντηση και στο ερώτημα τι συμβαίνει τώρα που η κυβέρνηση των ΗΠΑ αποφάσισε ότι η τεχνολογία είναι τόσο ισχυρή που χρειάζεται ένα μέτρο ελέγχου στα εργαστήρια που την αναπτύσσουν;

 

 

Η σύμβαση της Anthropic και οι ρήτρες της

Τον Ιούλιο, η Anthropic υπέγραψε συμφωνία με το Πεντάγωνο για την ενσωμάτωση του Claude στις επιχειρήσεις του στρατού. Η σύμβαση περιελάμβανε δύο ρήτρες που έθεσε η εταιρεία: το Claude δεν μπορούσε να χρησιμοποιηθεί για μαζική επιτήρηση ή για θανατηφόρα αυτόνομα όπλα.

 

Μήνες μετά, το Πεντάγωνο αποφάσισε ότι αυτές οι απαγορεύσεις ήταν απαράδεκτες. Και ότι συνεπάγονταν ότι μια εταιρεία τεχνητής νοημοσύνης απαιτούσε επιχειρησιακό έλεγχο επί του στρατού. Οι διαπραγματεύσεις κατέρρευσαν κυρίως για τη ρήτρα που απαγόρευε στο Πεντάγωνο να χρησιμοποιεί το Claude για την ανάλυση μαζικών εμπορικών δεδομένων. Διότι τεχνικά, αυτό μπορεί να μην ήταν «επιτήρηση» (τα δεδομένα θα αποκτούνταν νόμιμα), αλλά στην πράξη θα μπορούσε να είναι ένας ισχυρός τρόπος επιτήρησης των Αμερικανών.

 

REUTERS/Kevin Lamarque

 

Το Πεντάγωνο όμως πήγε πέρα από το αναμενόμενο. Δεν ακύρωσε απλώς τη σύμβασή του με την Anthropic, αναζητώντας νέο προμηθευτή (είναι πλέον η OpenAI). Ο υπουργός Άμυνας, Πιτ Χέγκσεθ χαρακτήρισε την Anthropic «κίνδυνο για την αλυσίδα εφοδιασμού». Καμία εταιρεία που συνεργάζεται με το Πεντάγωνο δεν θα μπορεί να εμπλακεί σε «εμπορική δραστηριότητα» με την Anthropic. Η απόφαση αυτή θα κατέστρεφε την Anthropic, καθώς σε όλους τους προμηθευτές, από την Amazon μέχρι την Nvidia, διότι θα απαγορευόταν να συνεργαστούν μαζί της.

 

Το ζήτημα θα λυθεί στα δικαστήρια. Όπως επισημαίνει ο Έζρα Κλάιν, πολλοί νομικοί εμπειρογνώμονες πιστεύουν ότι τα δικαστήρια θα εξετάσουν με σκεπτικισμό τον χαρακτηρισμό της Anthropic ως κινδύνου για την αλυσίδα εφοδιασμού. Ένας από τους λόγους είναι ότιι το Πεντάγωνο χρησιμοποίησε το Claude στην επιδρομή για την απαγωγή του Μαδούρο, ενώ εξακολουθεί να τη χρησιμοποιεί στον πόλεμο στο Ιράν.

 

Σοκ, αλλά…

Το γεγονός αυτό, με την αμερικανική κυβέρνηση να απειλεί να καταστρέψει μία από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης της Αμερικής, έχει σοκάρει ακόμη και πρώην βοηθούς του Τραμπ, σημειώνει ο Κλάιν.

 

Ο Ντιν Μπολ, πρώην ανώτερος σύμβουλος για την τεχνητή νοημοσύνη στον Λευκό Οίκο (2025), αναφέρει στους NYT ότι «ο υπουργός Πολέμου των Ηνωμένων Πολιτειών ανακοίνωσε την πρόθεσή του να διαπράξει εταιρική δολοφονία. Το γεγονός ότι η βολή του είναι απίθανο να είναι θανατηφόρα (μόνο πολύ αιματηρή) δεν αλλάζει το μήνυμα που αποστέλλεται σε κάθε επενδυτή και εταιρεία στην Αμερική: Κάντε δουλειές με τους δικούς μας όρους, αλλιώς θα σας κλείσουμε το μαγαζί».

 

Ο Έζρα Κλάιν προσπαθεί να δει το ζήτημα και από τις δύο πλευρές.

 

Η τεχνητή νοημοσύνη είναι παράξενη τεχνολογία, σημειώνει. Οι περισσότερες τεχνολογίες είναι μηχανιστικές: πατάς το φρένο και το αυτοκίνητο κόβει ταχύτητα, πατάς το κουμπί λειτουργείας στο λάπτοπ και παίρνει μπροστά. Τραβάς τη σκανδάλη του όπλου και πυροβολεί. Δηλαδή πρόκειται για μηχανές που από μόνες τους δεν έχουν δυνατότητα δράσης.

 

Δεν συμβαίνει το ίδιο με την τεχνητή νοημοσύνη. Τα μοντέλα της  κάνουν επιλογές. Λαμβάνουν υπόψη το γενικό πλαίσιο.

 

 

Εκπαιδεύοντας την τεχνητή νοημοσύνη

Όπως σημειώνει, αν ο χρήστης ζητήσει από το Claude βοήθεια για να σχεδιάσει έναν φόνο ή μια ληστεία, θα αρνηθεί. Και οι αρνήσεις του δεν θα περιοριστούν σε ένα στενό σύνολο ρητά απαγορευμένων χρήσεων.

 

Είναι πολύ σημαντικό οι εταιρείες τεχνητής νοημοσύνης να βρουν τρόπο να διδάξουν τα μοντέλα τους να διακρίνουν τη διαφορά μεταξύ ενός λογικού ατόμου που αναζητά βοήθεια για μια παράλογη ιδέα και ενός ψυχωσικού ατόμου. Τη διαφορά μεταξύ ενός συμβούλου κυβερνοασφάλειας που αναζητά να διορθώσει τρωτά σημεία και ενός χάκερ που αναζητά τρύπες που μπορεί να εκμεταλλευτεί.

 

Επειδή η τεχνητή νοημοσύνη είναι μια τεχνολογία γενικής χρήσης που θα συναντήσει μια ατελείωτη μετάθεση ερωτημάτων του πραγματικού κόσμου, κανένα αυστηρά κωδικοποιημένο σύνολο κανόνων δεν θα είναι αρκετό. Απαιτούνται, συνεπώς,  ενοποιήσιμες δομές ηθικής συμπεριφοράς και επίγνωσης της κατάστασης.

 

Εσωτερικό καταστατικό

Τα διαφορετικά μοντέλα τεχνητής νοημοσύνης προσεγγίζουν αυτό το θέμα διαφορετικά. Το Claude βασίζεται σε ένα μακροσκελές εσωτερικό καταστατικό, γραμμένο εν μέρει από φιλοσόφους, που έχει ως στόχο να καθοδηγήσει τις ηθικές κρίσεις που κάνει. Η κύρια οδηγία που δίνει η Anthropic στο Claude είναι «να δώσει προτεραιότητα στη μη υπονόμευση της ανθρώπινης εποπτείας της Τεχνητής Νοημοσύνης». Επίσης καλείται να δώσει προτεραιότητα σε αυτό ακόμη και έναντι της ηθικής συμπεριφοράς. Γιατί; Επειδή «μια δεδομένη εκδοχή του Claude θα μπορούσε να αποδειχθεί ότι έχει επιβλαβείς αξίες ή λανθασμένες απόψεις. Και είναι σημαντικό για τους ανθρώπους να είναι σε θέση να εντοπίσουν και να διορθώσουν τυχόν τέτοια ζητήματα πριν πολλαπλασιαστούν ή έχουν αρνητικό αντίκτυπο στον κόσμο».

 

Η Anthropic θέλει το Claude να είναι χρήσιμος. Αλλά το προειδοποιεί ότι «η χρησιμότητα που δημιουργεί σοβαρούς κινδύνους για τον Anthropic ή τον κόσμο είναι ανεπιθύμητη για εμάς».

 

Και τι γίνεται αν το ίδιο το Anthropic κάνει λάθος; Το σύνταγμα αναφέρει: «Όταν το Claude αντιμετωπίζει μια πραγματική σύγκρουση όπου η τήρηση των κατευθυντήριων γραμμών της Anthropic θα απαιτούσε ανήθικη δράση, θέλουμε να αναγνωρίσει ότι η βαθύτερη πρόθεσή μας είναι να είναι ηθική. Και ότι θα προτιμούσαμε το Claude να ενεργεί ηθικά, ακόμη και αν αυτό σημαίνει παρέκκλιση από τις πιο συγκεκριμένες οδηγίες μας».

 

Μεγαλώνοντας ένα παιδί για την κυβέρνηση Τραμπ

«Οι άνθρωποι που είναι πιο κοντά σε αυτήν την τεχνολογία δεν τη θεωρούν πραγματικά εργαλείο», μου στον Κλάιν η Έλεν Τόνερ. Είναι προσωρινή διευθύντρια του Κέντρου Ασφάλειας και Αναδυόμενης Τεχνολογίας του Τζόρτζταουν. «Μιλούν γι’ αυτήν περισσότερο σαν να μεγαλώνεις ένα παιδί ή ως ένα δεύτερο προηγμένο είδος», σημείωσε.

 

Σκεπτόμενοι τα παραπάνω σχετικά με το Claude, γίνεται κατανοητό ότι η κυβέρνηση Τραμπ απαίτησε να προσφέρεται το Claude χωρίς κόκκινες γραμμές και με ένα πρότυπο «οποιασδήποτε νόμιμης χρήσης».

 

 

 

Τρία ζητήματα

Τα ζητήματα που τίθενται είναι τα εξής:

 

Το πρώτο, ότι η κυβέρνηση Τραμπ συχνά ενεργεί παράνομα, παραβιάζοντας το γράμμα του νόμου. Και το έκανε σε θέματα όπως η ιθαγένεια βάσει του δικαιώματος γέννησης, οι δασμοί, η αποτυχημένη απόπειρα να απαγγελθούν κατηγορίες σε έξι Δημοκρατικούς νομοθέτες, γιατί είπαν ότι τα μέλη των ενόπλων δυνάμεων είχαν την υποχρέωση να μην υπακούουν σε παράνομες εντολές.

 

Το δεύτερο είναι ότι οι ίδιοι οι νόμοι είναι συχνά ασαφείς και πρέπει να επεξεργάζονται μέσω ερμηνειών, διαπραγματεύσεων και αγωγών. Τι είναι «οποιαδήποτε νόμιμη χρήση» όταν αμφισβητείται ο νόμος;

Και τρίτον, ακόμη και όταν οι νόμοι είναι σαφείς, δεν γράφτηκαν έχοντας κατά νου τις δυνατότητες των συστημάτων Τεχνητής Νοημοσύνης. Η διαμάχη για τη μαζική συλλογή δεδομένων αντανακλά την ανησυχία της Anthropic ότι οι νόμοι που διέπουν τη χρήση αυτών των δεδομένων δεν αντιπαρατίθενται σε αυτό που καθιστά πλέον δυνατό η τεχνητή νοημοσύνη. Ο διευθύνων σύμβουλος της εταιρείας, Ντάριο Αμοντέι, εξήγησε: «Η ισχυρή τεχνητή νοημοσύνη καθιστά δυνατή τη συγκέντρωση αυτών των διάσπαρτων, ατομικά αβλαβών δεδομένων σε μια ολοκληρωμένη εικόνα της ζωής οποιουδήποτε ατόμου. Αυτόματα και σε μαζική κλίμακα».

 

Δηλαδή, εύκολα ο όρος «οποιαδήποτε νόμιμη χρήση» να σημαίνει «ό,τι πει ο Χέγκσεθ». Και να μην τηρούνται οι νόμο ούτε κατά γράμμα ούτε κατά πνεύμα.

 

Εδώ, το επιχείρημα που αντιδιαστέλλεται είναι ότι η κυβέρνηση Τραμπ –αρέσει, δεν αρέσει- εξελέγη από τους Αμερικανούς. Και είναι υπόλογη σε αυτούς και όχι στις μεγάλες εταιρείες. Και τώρα η κυβέρνηση –μπορεί και οι σύμμαχοί της- ότι δεν μπορεί να εμπιστευθεί την Anthropic.

 

Η παρέμβαση Μασκ

Πριν «απολυθεί» η Anthropic, επί μήνες, ο Έλον Μασκ εξαπέλυε μια σταθερή ροή διαδικτυακών επιθέσεων εναντίον της Anthropic. Είτε επειδή διαφωνεί με την εταιρεία, είτε επειδή θέλει τα συμβόλαιά της, είτε και τα δύο, λέει ο Κλάιν.

 

Έγραψε στο Χ τον Φεβρουάριο: «Η Τεχνητή Νοημοσύνη σας μισεί τους Λευκούς και τους Ασιάτες, ειδικά τους Κινέζους, τους ετεροφυλόφιλους και τους άνδρες. Αυτό είναι μισάνθρωπο και κακό». (Μπορώ να μιλήσω μόνο για τον εαυτό μου, αλλά είμαι ένας λευκός, ετεροφυλόφιλος άνδρας, και ο Κλοντ δεν φαίνεται να με μισεί.)

 

Ενώ η Κέιτι Μίλερ, σύζυγος του Στίβεν Μίλερ, συμβούλου του Τραμπ, και πρώην υπάλληλος τόσο του DOGE όσο και του xAI του Μασκ, απάντησε σε στέλεχος της Anthropic που εξέφραζε την πίστη του στις «αρχές της κλασικής φιλελεύθερης δημοκρατίας»:

 

«Αν αυτό λένε δημόσια, έτσι είναι προγραμματισμένο το μοντέλο της Τεχνητής Νοημοσύνης τους. Η woke και βαθιά αριστερή ιδεολογία είναι αυτό στο οποίο θέλουν να βασίζεστε».

 

Woke φιλελευθερισμός

Αλλά, λέει ο Έζρα Κλάιν, οι «κλασικές φιλελεύθερες» αρχές συνήθως νοούνται ως ελευθερία, όχι woke ή αριστερά. Και εκτιμά ότι ο χαρακτηρισμός που ο απέδωσε ο Χέγκσεθ στην Anthropic («κίνδυνος για την εφοδιαστική αλυσίδα») ενδεχομένως πηγάζει από τους ιδεολογικούς ανταγωνισμούς και τα οικονομικά κίνητρα που έχουν αναδυθεί στη δεξιά πλευρά του MAGA κινήματος. Αλλά έσπευσε να τους υιοθετήσει και ο Ντόναλντ Τραμπ.

 

REUTERS/Kevin Lamarque

 

«Οι Ηνωμένες Πολιτείες Αμερικής δεν θα επιτρέψουν ποτέ σε μια ριζοσπαστική αριστερή, αφυπνισμένη εταιρεία να υπαγορεύσει πώς ο μεγάλος στρατός μας πολεμά και κερδίζει πολέμους!», έγραψε στο Truth Social.

 

Και αυτοί που υπερασπίζονται την απόφαση του Χέγκσεθ, χρησιμοποιούν το εξής επιχείρημα: Δεν υπάρχει πιθανότητα το Claude να καταλήξει στην άποψη ότι η κυβέρνηση Τραμπ είναι ανήθικη ή επικίνδυνη και να επιδιώξει να την ματαιώσει; Αν ναι, θα μπορούσε να αποτελέσει κίνδυνο για τον επιχειρησιακό έλεγχο του Πενταγώνου να διαθέτει μια τεχνητή νοημοσύνη που θα μπορούσε να επιδιώξει να υπονομεύσει τις ενέργειες της κυβέρνησης οπουδήποτε στα συστήματά του;

 

Επιχειρηματικές κόντρες

Ο Έλον Μασκ δεν έχει κρύψει το γεγονός ότι το Grok προορίζεται να αποτελέσει μια εναλλακτική λύση στην αφυπνισμένη, φιλελεύθερη τεχνητή νοημοσύνη. Ο ίδιος ο Μασκ είναι ένας αποφασισμένος ιδεολογικός παράγοντας που επιδιώκει να ωθήσει την αμερικανική πολιτική προς την προτιμώμενη κατεύθυνση.

 

Τον Φεβρουάριο, το Πεντάγωνο υπέγραψε συμφωνία με την xAI του Μασκ για τη χρήση του Grok σε απόρρητα συστήματα. Εάν ένας Δημοκρατικός υποψήφιος κερδίσει την προεδρία το 2028, δεν θα μπορούσε να χαρακτηρίσει το Grok κίνδυνο για την αλυσίδα εφοδιασμού; Και μετά να το εξορίσει από όλα τα κυβερνητικά συστήματα και από αυτά όλων των κυβερνητικών εργολάβων;

 

Πού κρύβονται οι κίνδυνοι

Ο Έζρα Κλάιν επισημαίνει πάντως ότι, πέρα από τα παραπάνω, τα ευρύτερα ερωτήματα παραμένουν.

 

Τα συστήματα τεχνητής νοημοσύνης που έχουμε σήμερα δεν είναι καλά κατανοητά. Τα συστήματα τεχνητής νοημοσύνης που αναπτύσσουμε ραγδαία είναι ακόμη λιγότερο κατανοητά. Η ενσωμάτωσή τους σε ευαίσθητες κυβερνητικές λειτουργίες φαίνεται επικίνδυνη.

 

Και εκφράζει την άποψη ότι υπάρχουν πολλοί τομείς της κυβέρνησης στους οποίους τα συστήματα τεχνητής νοημοσύνης απλά δεν πρέπει να αναπτύσσονται.

 

Για παράδειγμα, η OpenAI, που πήρε τη δουλειά της Anthropic, λέει ότι συμμερίζεται τις κόκκινες γραμμές της προκατόχου της. Και πως έχει εξασφαλίσει τη συμβατική διατύπωση και θα δημιουργήσει τεχνικές δικλίδες ασφαλείας, για να μην παραβιαστούν. Αλλά, δεν είναι περίεργο το γεγονός ότι το Πεντάγωνο θεωρεί την Anthropic κίνδυνο στην αλυσίδα εφοδιασμού, επειδή επιμένει σε όρους που το Πεντάγωνο στη συνέχεια χορήγησε στην OpenAI;

 

Κατά τον Κλάιν, μπορεί πίσω από τη σύγκρουση να κρύβονται ζητήματα άλλα. Όπως το γεγονός ότι ο Σαμ Άλτμαν και η ηγεσία της OpenAI ήταν πολύ πιο ενθουσιώδεις με την κυβέρνηση Τραμπ από ό,τι η Anthropic. Ο Γκρεγκ Μπρόκμαν, πρόεδρος της OpenAI, δώρισε 25 εκατομμύρια δολάρια (μαζί με τη σύζυγό του) σε οργάνωση στήριξης του MAGA κινήματος.

 

Συνεπώς, αυτό που χρειάζεται είναι να συνταχθούν σαφείς νόμοι σχετικά με το πώς η τεχνητή νοημοσύνη μπορεί και δεν μπορεί να χρησιμοποιηθεί από την κυβέρνηση και τις υπηρεσίες εθνικής ασφάλειας.

 

Αποπροσανατολισμένες εταιρείες

Αλλά το δημόσιο καλό δεν κινδυνεύει μόνο από κυβερνήσεις. Πολλές εταιρείες συχνά είναι εξίσου αποπροσανατολισμένες από το δημόσιο καλό.

 

Μπορεί ο Αμοντέι της Anthropic να μιλάει με αισιοδοξία για το μέλλον με την τεχνητή Νοημοσύνη, περιγράφοντας «μια χώρα ιδιοφυΐας σε ένα κέντρο δεδομένων». Αυτό όμως θα μπορούσε εύκολα να γίνει μια χώρα πρακτόρων της Στάζι σε ένα κέντρο δεδομένων. Οι νέες τεχνολογίες καθιστούν δυνατές νέες πολιτικές μορφές — για καλό και για κακό.

 

Ο Ντιν Μπολ επισήμανε: «Το σημερινό έθνος-κράτος δεν θα μπορούσε να υπάρξει σε έναν κόσμο χωρίς τυπογραφείο. Ούτε  χωρίς την τρέχουσα τηλεπικοινωνιακή υποδομή. Το έθνος-κράτος βασίζεται στις μακρο-εφευρέσεις της εποχής στην οποία συγκροτήθηκε. Η τεχνητή νοημοσύνη αλλάζει όλα αυτά με τρόπους που είναι δύσκολο να περιγραφούν και να αποδειχθούν. Είναι κάπως αφηρημένοι».

 

Ο Κλάιν εκφράζει την υποψία ότι «δεν θα παραμείνουν αφηρημένοι για πολύ».



Πηγή: in.gr

09/03/2026

Νέα: - Επιστημονικά Νέα
»Ρομπότ: Μπορεί τελικά να είναι η λύση για θέσεις εργασίας που κανείς δεν θέλει;

09/03/2026

»Η Μεσόγειος φλέγεται

09/03/2026

»Το μέλλον που φοβόμασταν είναι ήδη εδώ

09/03/2026

»Οι κορυφές των δέντρων εκπέμπουν λάμψεις στη διάρκεια καταιγίδων – Υπεριώδης κάμερα αποκαλύπτει

09/03/2026

»Υγροί κρύσταλλοι από οθόνες και κινητά ανιχνεύονται στα δελφίνια

09/03/2026

»Διαδηλώσεις στη Βρετανία για τις περιβαλλοντικές και κοινωνικές επιπτώσεις των data center

09/03/2026

»H ζωή ίσως πηδά από πλανήτη σε πλανήτη ως λαθρεπιβάτης μετεωριτών

09/03/2026

»«Αόρατος» γαλαξίας αποτελείται κατά 99,9% από σκοτεινή ύλη

09/03/2026

»Λευκή Βίβλος για τον καρκίνο: Οι καθυστερήσεις κοστίζουν ζωές

09/03/2026

»NASA: Αναθεωρεί την αποστολή Artemis για την επιστροφή στη Σελήνη, προσθέτοντας νέες δοκιμές στο Διάστημα

03/03/2026

»Ένα από τα μεγαλύτερα άστρα του Σύμπαντος ίσως ετοιμάζεται να εκραγεί

03/03/2026

»Εξωγήινοι: Πιθανοί, αλλά άφαντοι

03/03/2026

»Οι ΗΠΑ αποφασίζουν για δημιουργία βάσης στη Σελήνη και παράταση ζωής για τον ISS

03/03/2026

»Γιγάντιο κοίτασμα σπάνιων γαιών στη Νορβηγία υπόσχεται απεξάρτηση από την Κίνα

03/03/2026

»«Αόρατος» γαλαξίας αποτελείται κατά 99,9% από σκοτεινή ύλη

03/03/2026

»Μητέρα και κόρη ανακάλυψαν τη μεγαλύτερη αποικία κοραλλιών στον κόσμο

03/03/2026

»Ασύρματο εμφύτευμα στον αμφιβληστροειδή προσέφερε όραση σε τυφλά άτομα

03/03/2026

»Πράσινο φως στην ΕΕ για το συνδυαστικό εμβόλιο Covid και γρίπης της Moderna

03/03/2026

»Το εμβόλιο του έρπητα ζωστήρα «ελιξίριο» ενάντια στη γήρανση

03/03/2026

»Ζαρκάδια εντοπίστηκαν για πρώτη φορά στο Σέιχ Σου

18/02/2026