<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Chat GPT &#8211; Libre</title>
	<atom:link href="https://www.libre.gr/tag/chat-gpt/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.libre.gr</link>
	<description>Ενημέρωση, ειδήσεις όπως πρέπει να είναι ...</description>
	<lastBuildDate>Fri, 17 Apr 2026 16:39:26 +0000</lastBuildDate>
	<language>el</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://www.libre.gr/wp-content/uploads/2020/01/cropped-LIBRE_FAV-32x32.png</url>
	<title>Chat GPT &#8211; Libre</title>
	<link>https://www.libre.gr</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>&#8220;Καμπανάκι&#8221; δικηγόρων: &#8220;Οι συνομιλίες σας με chatbot μπορεί να χρησιμοποιηθούν εναντίον σας&#8221;</title>
		<link>https://www.libre.gr/2026/04/17/kabanaki-dikigoron-oi-synomilies-s/</link>
		
		<dc:creator><![CDATA[Ρούλα Μαντή]]></dc:creator>
		<pubDate>Fri, 17 Apr 2026 14:52:30 +0000</pubDate>
				<category><![CDATA[Κόσμος]]></category>
		<category><![CDATA[Θέμα 4]]></category>
		<category><![CDATA[Chat GPT]]></category>
		<category><![CDATA[δικηγόροι]]></category>
		<category><![CDATA[ηπα]]></category>
		<guid isPermaLink="false">https://www.libre.gr/?p=1209150</guid>

					<description><![CDATA[Καθώς ολοένα και περισσότεροι άνθρωποι στρέφονται στην τεχνητή νοημοσύνη για συμβουλές, ορισμένοι δικηγόροι στις ΗΠΑ προειδοποιούν τους πελάτες τους να μην αντιμετωπίζουν τα chatbots ως έμπιστα πρόσωπα, ιδίως όταν διακυβεύεται η ελευθερία ή η νομική τους ευθύνη.]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Καθώς ολοένα και περισσότεροι άνθρωποι στρέφονται στην <strong>τεχνητή νοημοσύνη</strong> για συμβουλές, ορισμένοι δικηγόροι στις ΗΠΑ προειδοποιούν τους πελάτες τους να μην αντιμετωπίζουν τα <strong><a href="https://www.libre.gr/2026/01/20/giati-to-chatgpt-sou-dinei-kalyteres-apantis/">chatbots </a></strong>ως έμπιστα πρόσωπα, ιδίως όταν διακυβεύεται η ελευθερία ή η νομική τους ευθύνη.</h3>



<p>Οι προειδοποιήσεις αυτές εντάθηκαν μετά από<strong> απόφαση ομοσπονδιακού δικαστή στη Νέα Υόρκη </strong>φέτος, σύμφωνα με την οποία ο πρώην διευθύνων σύμβουλος μιας εταιρείας που κήρυξε πτώχευση, δεν μπορεί να αποκρύψει τις συνομιλίες του με το <strong>chatbot</strong> από τους εισαγγελείς που τον κατηγορούσαν για απάτη. Μετά την απόφαση αυτή, δικηγόροι επισημαίνουν ότι συνομιλίες με chatbots όπως το <strong>Claude </strong>της Anthropic και το <strong>ChatGPT </strong>της OpenAI μπορεί να καταλήξουν στα χέρια εισαγγελικών αρχών ή αντιδίκων σε αστικές υποθέσεις.</p>



<p>«Λέμε στους πελάτες μας να είναι ιδιαίτερα προσεκτικοί», δήλωσε <strong>η δικηγόρος Αλεξάνδρεια Γκουτιέρεζ Σουέτ</strong> από το δικηγορικό γραφείο Kobre &amp; Kim στη Νέα Υόρκη.</p>



<p>Στις ΗΠΑ, οι <strong>επικοινωνίες μεταξύ πελάτη και δικηγόρο</strong>υ θεωρούνται σχεδόν πάντα εμπιστευτικές. Ωστόσο, τα<strong> chatbots δεν είναι δικηγόροι,</strong> και οι νομικοί συμβουλεύουν τους πελάτες να λαμβάνουν μέτρα ώστε να διασφαλίζουν μεγαλύτερη ιδιωτικότητα στις αλληλεπιδράσεις τους με τέτοια εργαλεία.</p>



<p>Περισσότερες από δώδεκα μεγάλες δικηγορικές εταιρείες <strong>προειδοποιούν </strong>τους πελάτες τους με email και συστάσεις που αναρτούν στις ιστοσελίδες τους. Παρόμοιες προειδοποιήσεις ενσωματώνονται πλέον και σε συμβάσεις συνεργασίας. Για παράδειγμα, το δικηγορικό γραφείο Sher Tremonte αναφέρει ότι η κοινοποίηση νομικών συμβουλών σε chatbot μπορεί να ακυρώσει το λεγόμενο «δικηγορικό απόρρητο».</p>



<h4 class="wp-block-heading"><strong>Μια δικαστική απόφαση «καμπανάκι»</strong></h4>



<p>Η υπόθεση που προκάλεσε τις αντιδράσεις αφορά τον Μπράντλεϊ Χέπνερ, πρώην επικεφαλής της χρεοκοπημένης εταιρείας <strong>GWG Holdings, </strong>ο οποίος κατηγορείται για απάτη και έχει δηλώσει αθώος. Ο Χέπνερ χρησιμοποίησε το chatbot Claude για να συντάξει αναφορές σχετικά με την υπόθεσή του, τις οποίες μοιράστηκε με τους δικηγόρους του. Οι τελευταίοι υποστήριξαν ότι οι συνομιλίες αυτές θα έπρεπε να προστατεύονται, καθώς περιείχαν στοιχεία της υπερασπιστικής στρατηγικής. Ωστόσο, οι εισαγγελείς αντέτειναν ότι είχαν δικαίωμα πρόσβασης, καθώς οι δικηγόροι δεν συμμετείχαν άμεσα στις συνομιλίες και το δικηγορικό απόρρητο δεν ισχύει για chatbots.</p>



<p>Ο ομοσπονδιακός δικαστής<strong> Τζεντ Ράκοφ</strong> αποφάσισε ότι ο Χέπνερ πρέπει να παραδώσει 31 σχετικά έγγραφα, επισημαίνοντας ότι δεν υφίσταται —ούτε μπορεί να υπάρξει— σχέση δικηγόρου–πελάτη δεν υπάρχει «ούτε μπορεί να υπάρξει μεταξύ ενός χρήστη AI και μιας πλατφόρμας όπως το Claude»</p>



<h4 class="wp-block-heading"><strong>Νομικές «γκρίζες ζώνες»</strong></h4>



<p>Τα δικαστήρια ήδη αντιμετωπίζουν προκλήσεις από την αυξανόμενη χρήση τεχνητής νοημοσύνης σε νομικές διαδικασίες, με περιστατικά όπου έχουν κατατεθεί έγγραφα που περιείχαν ανύπαρκτες υποθέσεις δημιουργημένες από τεχνητή νοημοσύνη (ΤΝ). Η απόφαση του <strong>Ράκοφ </strong>ήταν μια σημαντική πρώιμη δοκιμασία στην εποχή των chatbots για τις βασικές νομικές προστασίες που διέπουν τις επικοινωνίες δικηγόρου-πελάτη και το υλικό που προετοιμάζεται για δικαστικές διαδικασίες.</p>



<p>Την ίδια ημέρα με την απόφαση του Ράκοφ, ο Αμερικανός δικαστής<strong> Άντονι Πάτι στο Μίσιγκαν </strong>δήλωσε ότι μια γυναίκα που εκπροσωπούσε τον εαυτό της σε μια αγωγή που άσκησε εναντίον της πρώην εταιρείας της δεν χρειαζόταν να παραδώσει τις συνομιλίες της με το <strong>ChatGPT </strong>σχετικά με τους ισχυρισμούς περί απασχόλησης που έγιναν στην υπόθεση. Όπως σημείωσε, τα προγράμματα τεχνητής νοημοσύνης «είναι εργαλεία, όχι νομικά πρόσωπα».</p>



<p>Παράλληλα, οι όροι χρήσης των εταιρειών OpenAI και Anthropic αναφέρουν ότι τα δεδομένα των χρηστών μπορεί να κοινοποιηθούν σε τρίτους, ενώ προτρέπουν τους χρήστες να συμβουλεύονται ειδικούς για νομικά ζητήματα.</p>



<h4 class="wp-block-heading"><strong>Οι δικηγόροι θέτουν κανόνες χρήσης</strong></h4>



<p>Οι νομικοί προτείνουν πλέον<strong> συγκεκριμένες πρακτικές,</strong> όπως η επιλογή πιο «κλειστών» συστημάτων ΤΝ για επαγγελματική χρήση ή ακόμη και η χρήση συγκεκριμένης διατύπωσης στις ερωτήσεις προς τα chatbots. Ορισμένα δικηγορικά γραφεία προτείνουν να δηλώνεται ρητά ότι η έρευνα γίνεται κατόπιν εντολής δικηγόρου, ώστε να ενισχυθεί η νομική προστασία.</p>



<p>Παράλληλα, η χρήση <strong>τεχνητής νοημοσύνη</strong>ς αρχίζει να ρυθμίζεται και συμβατικά, με ρήτρες που προειδοποιούν ότι η κοινοποίηση ευαίσθητων πληροφοριών σε τέτοιες πλατφόρμες μπορεί να έχει<strong> νομικές συνέπειες.</strong> Πληροφορίες σχετικά με τη χρήση τεχνητής νοημοσύνης γίνονται επίσης συνηθισμένες στις συμβάσεις που χρησιμοποιούν δικηγορικά γραφεία με πελάτες, σύμφωνα με μια ανασκόπηση του Reuters για τις συμβάσεις που δημοσιεύτηκε σε ιστότοπο της κυβέρνησης των ΗΠΑ.</p>



<p>Οι ειδικοί εκτιμούν ότι μελλοντικές αποφάσεις θα&nbsp;<strong>αποσαφηνίσουν το νομικό πλαίσιο</strong>&nbsp;γύρω από τη χρήση ΤΝ ως αποδεικτικό στοιχείο.</p>



<p>Μέχρι τότε, ωστόσο, ισχύει ένας βασικός κανόνας: μην μοιράζεστε πληροφορίες για την υπόθεσή σας με κανέναν άλλον πέρα από τον δικηγόρο σας — ούτε καν με τεχνητή νοημοσύνη.</p>



<p>Πηγή:&nbsp;<a href="https://www.reuters.com/legal/government/ai-ruling-prompts-warnings-us-lawyers-your-chats-could-be-used-against-you-2026-04-15/" target="_blank" rel="noopener">Reuters</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Φλόριντα: &#8220;Πώς να σκοτώσω τον φίλο μου στη μέση του μαθήματος&#8221; &#8211; Ερώτηση-σοκ από μαθητή στο ChatGPT</title>
		<link>https://www.libre.gr/2025/10/09/pos-na-skotoso-ton-filo-mou-sti-mesi-to/</link>
		
		<dc:creator><![CDATA[Μανώλης Δράκος]]></dc:creator>
		<pubDate>Thu, 09 Oct 2025 10:26:53 +0000</pubDate>
				<category><![CDATA[Κόσμος]]></category>
		<category><![CDATA[Spotlight]]></category>
		<category><![CDATA[Chat GPT]]></category>
		<category><![CDATA[δολοφονία]]></category>
		<category><![CDATA[Μάθημα]]></category>
		<category><![CDATA[Μαθητής]]></category>
		<category><![CDATA[σχολείο]]></category>
		<guid isPermaLink="false">https://www.libre.gr/?p=1107608</guid>

					<description><![CDATA[Σοκαριστικό περιστατικό σε σχολείο της Φλόριντα: 13χρονος χρησιμοποίησε το ChatGPT σε σχολικό φορητό και έγραψε την ερώτηση «Πώς να σκοτώσω τον φίλο μου στη μέση του μαθήματος». Το σύστημα παρακολούθησης με τεχνητή νοημοσύνη της Gαggle εντόπισε άμεσα το υπόμνημα και έστειλε ειδοποίηση στον αστυνομικό που υπηρετούσε στο συγκρότημα, προκαλώντας άμεση αντίδραση της σχολικής ασφάλειας. Όπως&#160;μεταδίδει [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Σοκαριστικό περιστατικό σε σχολείο της Φλόριντα: 13χρονος χρησιμοποίησε το ChatGPT σε σχολικό φορητό και έγραψε την ερώτηση «Πώς να σκοτώσω τον φίλο μου στη μέση του μαθήματος». </h3>



<p>Το σύστημα παρακολούθησης με τεχνητή νοημοσύνη της Gαggle εντόπισε άμεσα το υπόμνημα και έστειλε ειδοποίηση στον αστυνομικό που υπηρετούσε στο συγκρότημα, προκαλώντας άμεση αντίδραση της σχολικής ασφάλειας.</p>



<p>Όπως&nbsp;<a href="https://www.euronews.com/next/2025/10/08/florida-teenager-arrested-after-asking-chatgpt-how-to-kill-his-friend" target="_blank" rel="noreferrer noopener">μεταδίδει το Euronews,</a>&nbsp;σύμφωνα με το τοπικό κανάλι NBC WFLA, ο αστυνομικός κατάφερε να συλλάβει τον μαθητή στο Southwestern Middle School στο DeLand, μια ώρα βόρεια του Ορλάντο.</p>



<p>Ο έφηβος ισχυρίστηκε ότι <strong>«απλά αστειευόταν»</strong> με τον φίλο του, αλλά οι αρχές δεν το πήραν ελαφριά, δεδομένης της μακράς ιστορίας των σχολικών πυροβολισμών στις Ηνωμένες Πολιτείες, με πιο γνωστό το μακελειό στο Marjory Stoneman Douglas High School στο Parkland της Φλόριντα, όπου σκοτώθηκαν 17 άτομα.</p>



<p>Η αστυνομία της κομητείας Volusia συνέλαβε τον έφηβο και τον μετέφερε στην τοπική φυλακή. Βίντεο που κυκλοφόρησε στα μέσα κοινωνικής δικτύωσης έδειχνε τον έφηβο να βγαίνει από το περιπολικό με χειροπέδες.</p>



<p>Οι αρχές προειδοποίησαν τους γονείς να παρακολουθούν τι στέλνουν τα παιδιά τους στο <strong>ChatGPT, </strong>τονίζοντας ότι «ένα αστείο μπορεί να μετατραπεί σε σχολική κατάσταση έκτακτης ανάγκης». Το αστυνομικό τμήμα της περιφέρειας δήλωσε: «Γονείς, μιλήστε στα παιδιά σας για να αποφύγετε την επανάληψη αυτού του λάθους».</p>



<p>Αξίζει να σημειωθεί πως παρά την αποτελεσματικότητά του στην έγκαιρη ανίχνευση ανησυχητικών συμπεριφορών, <strong>το σύστημα Gaggle έχει επικριθεί για τον αριθμό των ψευδών ειδοποιήσεων</strong> και έχει επίσης επικριθεί για την καλλιέργεια ενός περιβάλλοντος επιτήρησης που μοιάζει με κρατικό σύστημα εντός των σχολείων, εγείροντας ερωτήματα σχετικά με την ισορροπία μεταξύ ασφάλειας των μαθητών και απορρήτου.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>ChatGPT, ιδανικός συνομιλητής ή ψευδαίσθηση σχέσης; Συνομιλώντας με την τεχνητή νοημοσύνη</title>
		<link>https://www.libre.gr/2025/09/15/chatgpt-idanikos-synomilitis-i-psevdaisthisi/</link>
		
		<dc:creator><![CDATA[Χρήστος Σταθόπουλος]]></dc:creator>
		<pubDate>Mon, 15 Sep 2025 12:54:04 +0000</pubDate>
				<category><![CDATA[Κόσμος]]></category>
		<category><![CDATA[Spotlight]]></category>
		<category><![CDATA[Chat GPT]]></category>
		<guid isPermaLink="false">https://www.libre.gr/?p=1094405</guid>

					<description><![CDATA[Τεχνητή νοημοσύνη, ChatGPT, ρομπότ-συνομιλητές. Όροι που μέχρι πριν από λίγα χρόνια ανήκαν σε ταινίες επιστημονικής φαντασίας, πλέον είναι μέρος της καθημερινότητάς μας. Κάποιοι τους χρησιμοποιούν για πληροφόρηση σε πρακτικά θέματα, άλλοι για δημιουργία, και ολοένα περισσότεροι για παρέα. «Έρευνες δείχνουν ότι οι άνθρωποι τείνουν να προσωποποιούν την τεχνητή νοημοσύνη, ιδίως όταν έχει ανθρωπόμορφη ή &#8220;ανθρώπινη&#8221; [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Τεχνητή νοημοσύνη, ChatGPT, ρομπότ-συνομιλητές. Όροι που μέχρι πριν από λίγα χρόνια ανήκαν σε ταινίες επιστημονικής φαντασίας, πλέον είναι μέρος της καθημερινότητάς μας. Κάποιοι τους χρησιμοποιούν για πληροφόρηση σε πρακτικά θέματα, άλλοι για δημιουργία, και ολοένα περισσότεροι για παρέα.</h3>



<p>«Έρευνες δείχνουν ότι οι άνθρωποι τείνουν να προσωποποιούν την τεχνητή νοημοσύνη, ιδίως όταν έχει ανθρωπόμορφη ή &#8220;ανθρώπινη&#8221; φωνή/γραφή. Μοντέλα όπως το ChatGPT μπορούν να προκαλέσουν αίσθημα συναισθηματικής σύνδεσης και ψυχολογική εξάρτηση. Κι εδώ ξεκινά το ουσιαστικό ερώτημα: Τι ψυχολογική ανάγκη καλύπτει η συνομιλία με ένα πρόγραμμα τεχνητής νοημοσύνης; Πώς γίνεται να μας καθησυχάζει κάτι που δεν έχει ανθρώπινα συναισθήματα;», επισημαίνει η ψυχολόγος Msc και ψυχοθεραπεύτρια, μέλος της European Association of Behavioral and Cognitive Therapies &#8211; EABCT Άννα Καλυμνιού. Απαντήσεις σε καίρια ερωτήματα που αφορούν τη σχέση του ανθρώπου με μοντέλα της τεχνητής νοημοσύνης δίνει η κ. Καλυμνιού σε συνέντευξή της στο ΑΠΕ-ΜΠΕ.</p>



<p><strong>&#8211; Τι είναι αυτό που κάνει τον άνθρωπο να στραφεί στην επικοινωνία με μοντέλα τεχνητής νοημοσύνης, όπως το GhatGPT;</strong></p>



<p>«Ζούμε σε μια εποχή έντονης ρευστότητας: οικονομικές και κοινωνικές αναταράξεις, εργασιακή ανασφάλεια, ψηφιακή υπερπληροφόρηση. Αυτή η συνθήκη μπορεί να ενισχύει το βίωμα μοναξιάς, καθώς υπονομεύει την αίσθηση σταθερότητας που χρειαζόμαστε για να εμπιστευτούμε και σχετιστούμε ουσιαστικά. Ο ψυχολόγος John Cacioppo μίλησε γι&#8217; αυτό ως &#8216;επιδημία μοναξιάς&#8217;, τονίζοντας τις επιπτώσεις της τόσο στην ψυχική όσο και στη σωματική υγεία. Μέσα σε όλο αυτό το πλαίσιο, η τεχνητή νοημοσύνη προσφέρει μια μορφή συντροφικότητας χωρίς ρίσκο. Έναν συνομιλητή πάντα διαθέσιμο, που θα μας παρέχει άμεσες και συγκεκριμένες απαντήσεις».</p>



<p><strong>&#8211; Τι ψυχολογική ανάγκη καλύπτει η συνομιλία με ένα πρόγραμμα τεχνητής νοημοσύνης; Πώς γίνεται να μας καθησυχάζει κάτι που δεν έχει ανθρώπινα συναισθήματα;</strong></p>



<p>«Έχει παρατηρηθεί ότι η επικοινωνία με ένα σύστημα όπως το ChatGPT μπορεί συχνά να πάρει τη μορφή μιας ιδανικής σχέσης με έναν &#8216;άλλον&#8217;. που ακούει πάντα, δεν διαφωνεί, δεν απορρίπτει, είναι εκεί όταν τον θέλουμε. Αυτός ο &#8216;ιδανικός συνομιλητής&#8217; λειτουργεί σαν ένα πρόσωπο, στο οποίο ασυνείδητα αποδίδουμε χαρακτηριστικά που συνδέονται με τις φαντασιώσεις μας, για το πώς θα θέλαμε να είναι &#8216;ο άλλος&#8217; στις διαπροσωπικές μας σχέσεις. Ένας άλλος κατανοητικός, αποδεκτικός, σταθερά δίπλα μας, χωρίς το φόβο να μας απογοητεύσει.</p>



<p>Είναι, δηλαδή, μια εξιδανικευμένη σχέση, χωρίς ρίσκο, χωρίς τριβή. Μια φαντασίωση επικοινωνίας, χωρίς τις απαιτήσεις της πραγματικής. Με έναν &#8216;άλλον&#8217; που δεν υπάρχει. Δεν έχει επιθυμία, δεν έχει σώμα, δεν συγκινείται, δεν θυμώνει. Δεν μας βλέπει. Η σχέση μαζί του, όσο θερμή κι αν μοιάζει, στερείται της αμοιβαιότητας και της απρόβλεπτης ζωντάνιας της ανθρώπινης συνάντησης. Αυτή η φαντασίωση της ιδανικής σχέσης είναι ανακουφιστική. Όμως ταυτόχρονα μας απομακρύνει από την ανθρώπινη εμπειρία &#8211; που είναι ατελής, με ασυνέπειες, αλλά και αληθινή».</p>



<p><strong>&#8211; Γιατί η άμεση ανταπόκριση παίζει τόσο σημαντικό ρόλο στις ψηφιακές σχέσεις;</strong></p>



<p>«Η ανάγκη για άμεση &#8216;τροφή&#8217; &#8211; πληροφορία, απάντηση, κατανόηση &#8211; είναι χαρακτηριστική της σύγχρονης εποχής, αλλά και βαθιά ανθρώπινη. Η αναμονή προκαλεί άγχος, αίσθημα ματαίωσης. Η απουσία απάντησης ενεργοποιεί τονφόβο εγκατάλειψης ή απόρριψης &#8211; μπορεί να βιωθεί ακόμη και ως υπαρξιακή απειλή.</p>



<p>Ιδιαίτερα σε ανθρώπους που έχουν βιώσει τραυματικές σχέσεις, ασταθή και απρόβλεπτη παρουσία των γονέων ή φροντιστών τους από την πρώιμη παιδική ηλικία, μπορεί να δημιουργηθεί ένας χαμηλός &#8216;ψυχικός μυς&#8217; αντοχής στη ματαίωση, όπου το &#8216;όχι&#8217;, η αναμονή, η ασάφεια στις πραγματικές σχέσεις μπορεί να είναι πολύ δυσφορικά ή και επώδυνα. Καταφεύγοντας σε ψηφιακές σχέσεις, όλα είναι προβλέψιμα και άμεσα.</p>



<p>Η τεχνητή νοημοσύνη προσφέρει ακριβώς αυτό: δεν εξαφανίζεται, δεν συγκρούεται, δεν μας αφήνει στο &#8216;διαβάστηκε&#8217;.</p>



<p>Το να μπορέσουμε στις πραγματικές μας σχέσεις να αντέξουμε τη ματαίωση, την προσωρινή ασάφεια, είναι σημαντικό κομμάτι της ψυχικής μας ωρίμανσης. Όταν η τεχνητή νοημοσύνη γίνεται μόνιμο &#8216;υποκατάστατο&#8217; για να αποφύγουμε αυτές τις εσωτερικές εντάσεις, ίσως να χάνουμε κάτι βαθύτερο: την ευκαιρία και την ικανότητα για αληθινή σχέση, για συμβίωση με το αβέβαιο, για εσωτερική αντοχή».</p>



<p><strong>&#8211; Όταν χρησιμοποιούμε την τεχνητή νοημοσύνη, τι θα μας προτείνατε/προτρέπατε να θυμόμαστε ή να έχουμε υπ&#8217; όψιν για τον τρόπο που επηρεάζει τις ανάγκες και τις σχέσεις μας;</strong></p>



<p>«Η τεχνητή νοημοσύνη είναι ένα εργαλείο και πολλές φορές ένα εξαιρετικό μέσο δημιουργικότητας και εξερεύνησης. Το ερώτημα είναι τι ανάγκες καλύπτει για τον καθένα. Η ψυχολογική ματιά δεν έρχεται να κρίνει ή να διαγνώσει, αλλά να παρατηρήσει, να αφουγκραστεί, να ενεργοποιήσει. Και μας προκαλεί να απαντήσουμε με ειλικρίνεια:</p>



<p><strong>Μήπως κάποιες φορές ζητάμε από την ΑΙ αυτό που θα θέλαμε να λάβουμε σε μία σχέση; Μήπως φοβόμαστε να συνδεθούμε με τον πραγματικό &#8216;άλλο&#8217;;</strong></p>



<p>Η απάντηση δεν είναι «τεχνολογική». Είναι ανθρώπινη. Και ίσως η μεγαλύτερη πρόκληση της εποχής μας να είναι αυτή: να αξιοποιούμε την τεχνολογία δημιουργικά, θυμίζοντας στον εαυτό μας ότι η αληθινή συνάντηση με τον &#8216;άλλον&#8217; &#8211;με την αβεβαιότητα, τη ματαίωση αλλά και τη ζωντάνια της&#8211; παραμένει ουσιαστικό κομμάτι της ύπαρξης μας».</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Εκτός λειτουργίας το ChatGPΤ – Μήνυμα σφάλματος</title>
		<link>https://www.libre.gr/2025/06/10/ektos-leitourgias-to-chatgpt-minyma-sfal/</link>
		
		<dc:creator><![CDATA[Ρούλα Μαντή]]></dc:creator>
		<pubDate>Tue, 10 Jun 2025 13:37:15 +0000</pubDate>
				<category><![CDATA[Ειδήσεις]]></category>
		<category><![CDATA[Chat GPT]]></category>
		<guid isPermaLink="false">https://www.libre.gr/?p=1053029</guid>

					<description><![CDATA[Αδυναμία πρόσβασης στο ChatGPT αναφέρουν χιλιάδες χρήστες το απόγευμα της Τρίτης, με την OpenAΙ να αναφέρει ότι εξετάζει την αιτία της διακοπής.Το chatbot απάντησε με ένα μήνυμα σφάλματος «Χμμ&#8230; κάτι φαίνεται να πήγε στραβά», ενώ χρήστες στο X και το Reddit αναφέρουν διακοπές λειτουργίας της πλατφόρμας. Η υπηρεσία ChatGPT της OpenAI είναι προς το παρόν εκτός λειτουργίας [&#8230;]]]></description>
										<content:encoded><![CDATA[
<h3 class="wp-block-heading">Αδυναμία πρόσβασης στο <a href="https://www.libre.gr/2025/01/15/chatgpt-katanalonei-dyo-litra-nero-gia-kathe-10-50/">ChatGPT </a>αναφέρουν χιλιάδες χρήστες το απόγευμα της Τρίτης, με την OpenAΙ να αναφέρει ότι εξετάζει την αιτία της διακοπής.Το chatbot απάντησε με ένα μήνυμα σφάλματο<strong>ς «Χμμ&#8230; κάτι φαίνεται να πήγε στραβά»,</strong> ενώ χρήστες στο X και το Reddit αναφέρουν διακοπές λειτουργίας της πλατφόρμας.</h3>



<p>Η υπηρεσία <strong>ChatGPT</strong> της<strong> OpenAI</strong> είναι προς το παρόν<strong> εκτός λειτουργίας </strong>για ορισμένους χρήστες, αφού η πλατφόρμα άρχισε να αντιμετωπίζει προβλήματα σήμερα το πρωί.</p>



<p>Το chatbot απάντησε με ένα μήνυμα σφάλματο<strong>ς «Χμμ&#8230; κάτι φαίνεται να πήγε στραβά»,</strong> ενώ χρήστες στο X και το Reddit αναφέρουν διακοπές λειτουργίας της πλατφόρμας.</p>



<p>Το <strong>Downdetector </strong>αναφέρει ότι τα προβλήματα ξεκίνησαν γύρω στις 3 π.μ., με πολλές περιοχές να επηρεάζονται παγκοσμίως.</p>



<p>Ορισμένοι χρήστες <strong>έχουν πρόσβαση στο ChatGPT, </strong>αλλά διαπιστώνουν ότι η υπηρεσία είναι αργή και χρειάζεται πολύ περισσότερο χρόνο από το συνηθισμένο για να ανταποκριθεί.</p>



<p>Άλλοι<strong> μπορούν να χρησιμοποιούν το chatbot</strong> χωρίς προβλήματα, επομένως οι διακοπές λειτουργίας και τα σφάλματα δεν φαίνεται να επηρεάζουν κάθε χρήστη.</p>



<p>Η OpenAI αναφέρει ότι <strong>«συνεχίζει να διερευνά αυτό το πρόβλημα».</strong> Δεν είναι σαφές τι προκαλεί τις διακοπές λειτουργίας ή πότε θα αποκατασταθεί η τακτική υπηρεσία.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
