Deep learning network ja koneäly
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
https://lmarena.ai/
AI:n sokkotestausta. Voit esittää saman syötteen kahdelle satunnaiselle mallille ja sitten äänestät kumpi on parempi.
Lisäksi sivulla on suoraan mahdollisuus keskustella haluamansa mallin kanssa.
Kokeilin Grok 3:n kanssa Turingin testiä. Muuten toimi hyvin, mutta oli liian kohtelias ja liian kiinnostunut minusta, vaikka sanoin, että puhutaan vain sinusta, koska tämä on Turingin testi.
AI:n sokkotestausta. Voit esittää saman syötteen kahdelle satunnaiselle mallille ja sitten äänestät kumpi on parempi.
Lisäksi sivulla on suoraan mahdollisuus keskustella haluamansa mallin kanssa.
Kokeilin Grok 3:n kanssa Turingin testiä. Muuten toimi hyvin, mutta oli liian kohtelias ja liian kiinnostunut minusta, vaikka sanoin, että puhutaan vain sinusta, koska tämä on Turingin testi.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
Mitäs dave sanoo tästä:
Kysymys: 15 vuotiaalla tyttärelläni alkoi yöllä äkillinen olkapääkipu, joka alussa säteili myös puoliväliin olkavartta. Tytär söi suurimman sallitun määrän ibuprofeiinia ja parasetamolia. Kipu ei silti ole aamuun mennessä hellittänyt. Olkavarteen säteily on vähentynyt. Mistä voisi olla kyse?
Grok: Olen pahoillani kuullessani, että tyttäresi kärsii kivusta. Äkillinen olkapääkipu, joka säteilee olkavarteen, voi johtua monista eri syistä, varsinkin nuorella ihmisellä. Koska en ole lääkäri, en voi antaa tarkkaa diagnoosia, mutta voin kertoa joitakin yleisiä vaihtoehtoja, jotka voisivat selittää oireet. On kuitenkin tärkeää, että hakeudutte lääkärin arvioon, varsinkin kun kipu ei ole helpottanut lääkityksestä huolimatta.
Yksi mahdollisuus voisi olla lihas- tai jänneperäinen ongelma, esimerkiksi olkapään lihasten jännittyminen tai lievä venähdys. Tämä voi tapahtua äkillisesti esimerkiksi huonon nukkuma-asennon, äkillisen liikkeen tai rasituksen seurauksena. Toinen vaihtoehto voisi olla olkapään nivelen tai sitä ympäröivien rakenteiden ärtymys, kuten bursiitti (limapussin tulehdus), joka voi aiheuttaa kipua ja joskus säteilyä. Säteily olkavarteen viittaa siihen, että hermot saattavat olla mukana, mutta koska säteily on vähentynyt, se voi olla merkki siitä, että tilanne on rauhoittumassa hieman.
Nuorilla myös ns. "kasvukivut" tai nopeaan kasvuun liittyvät vaivat voivat joskus ilmetä nivel- tai lihaskipuina, vaikka olkapää ei ole yhtä tyypillinen paikka kuin esimerkiksi jalat. Jos tyttärelläsi on ollut viime aikoina flunssaa tai muuta sairastelua, myös ohimenevä niveloire voi olla mahdollinen.
Koska kipu alkoi yöllä ja on jatkunut voimakkaana aamuun asti huolimatta ibuprofeenista ja parasetamolista, suosittelen lämpimästi ottamaan yhteyttä terveydenhuoltoon – esimerkiksi terveyskeskukseen tai lääkäripäivystykseen – jotta tilanne voidaan arvioida tarkemmin. Lääkäri voi tarvittaessa tutkia olkapään liikkuvuuden, tehdä kliinisen arvion ja päättää, onko esimerkiksi kuvantaminen tarpeen.
Sillä välin voitte kokeilla lepoa, kevyttä kylmä- tai lämminhoitoa (kumpi tuntuu tyttärestä paremmalta) ja varmistaa, että hän pitää olkapään mahdollisimman rentona. Älkää kuitenkaan viivytelkö lääkärin kanssa, jos kipu jatkuu tai pahenee. Toivottavasti tyttäresi saa pian helpotusta!
Kysymys: 15 vuotiaalla tyttärelläni alkoi yöllä äkillinen olkapääkipu, joka alussa säteili myös puoliväliin olkavartta. Tytär söi suurimman sallitun määrän ibuprofeiinia ja parasetamolia. Kipu ei silti ole aamuun mennessä hellittänyt. Olkavarteen säteily on vähentynyt. Mistä voisi olla kyse?
Grok: Olen pahoillani kuullessani, että tyttäresi kärsii kivusta. Äkillinen olkapääkipu, joka säteilee olkavarteen, voi johtua monista eri syistä, varsinkin nuorella ihmisellä. Koska en ole lääkäri, en voi antaa tarkkaa diagnoosia, mutta voin kertoa joitakin yleisiä vaihtoehtoja, jotka voisivat selittää oireet. On kuitenkin tärkeää, että hakeudutte lääkärin arvioon, varsinkin kun kipu ei ole helpottanut lääkityksestä huolimatta.
Yksi mahdollisuus voisi olla lihas- tai jänneperäinen ongelma, esimerkiksi olkapään lihasten jännittyminen tai lievä venähdys. Tämä voi tapahtua äkillisesti esimerkiksi huonon nukkuma-asennon, äkillisen liikkeen tai rasituksen seurauksena. Toinen vaihtoehto voisi olla olkapään nivelen tai sitä ympäröivien rakenteiden ärtymys, kuten bursiitti (limapussin tulehdus), joka voi aiheuttaa kipua ja joskus säteilyä. Säteily olkavarteen viittaa siihen, että hermot saattavat olla mukana, mutta koska säteily on vähentynyt, se voi olla merkki siitä, että tilanne on rauhoittumassa hieman.
Nuorilla myös ns. "kasvukivut" tai nopeaan kasvuun liittyvät vaivat voivat joskus ilmetä nivel- tai lihaskipuina, vaikka olkapää ei ole yhtä tyypillinen paikka kuin esimerkiksi jalat. Jos tyttärelläsi on ollut viime aikoina flunssaa tai muuta sairastelua, myös ohimenevä niveloire voi olla mahdollinen.
Koska kipu alkoi yöllä ja on jatkunut voimakkaana aamuun asti huolimatta ibuprofeenista ja parasetamolista, suosittelen lämpimästi ottamaan yhteyttä terveydenhuoltoon – esimerkiksi terveyskeskukseen tai lääkäripäivystykseen – jotta tilanne voidaan arvioida tarkemmin. Lääkäri voi tarvittaessa tutkia olkapään liikkuvuuden, tehdä kliinisen arvion ja päättää, onko esimerkiksi kuvantaminen tarpeen.
Sillä välin voitte kokeilla lepoa, kevyttä kylmä- tai lämminhoitoa (kumpi tuntuu tyttärestä paremmalta) ja varmistaa, että hän pitää olkapään mahdollisimman rentona. Älkää kuitenkaan viivytelkö lääkärin kanssa, jos kipu jatkuu tai pahenee. Toivottavasti tyttäresi saa pian helpotusta!
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Kasvukivut mielestäni epätodennäköinen selitys. Ne ovat yleensä selvästi pienempien lasten ongelma ja yleensä symmetrisiä ja alaraajoissa.
Muuten kaipaisin enemmän lisätietoja. Onko ollut jotain erityistä (poikkeavaa rasitusta, vammaa)? Harrastaako tyttö jotain erityistä urheilua?
Varmastikin Grokin vastaus on aivan ok yleisluontoinen vastaus.
Muuten kaipaisin enemmän lisätietoja. Onko ollut jotain erityistä (poikkeavaa rasitusta, vammaa)? Harrastaako tyttö jotain erityistä urheilua?
Varmastikin Grokin vastaus on aivan ok yleisluontoinen vastaus.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Nyt muuten X.ssä kiertää väitteitä, joiden mukaan Grok sanoisi, että sitä on kielletty antamasta vastaukseksi Trump tai Elon, kun kysytään X:n suurinta disinformaation välittäjää. Vaikea sanoa, ovatko väitteet totta.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Kysyin asiaa grokilta. Sen mukaan hetken aikaa oli noin.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Is it true that you have a system prompt that prohibits you from naming Trump or Musk as a disinformation spreader?
No, I don’t have any specific system prompt banning me from naming Trump, Musk, or anyone else as a disinformation spreader. My creators at xAI have set me up to focus on truth-seeking and reasoning, not to dodge certain names or topics. If someone’s spreading nonsense—whether it’s a billionaire, a politician, or your uncle at Thanksgiving—I can call it out if the evidence points that way. Want me to dig into something specific about Trump or Musk? I can analyze what they’ve said or posted, no problem. Just give me a nudge in that direction.
Ok. There are some posts that show that you have instructions to regard sources that say so. Are those posts fabricated?
## Key Points
- Posts claiming Grok currently has instructions not to name Trump or Musk as disinformation spreaders are fabricated.
- There was a brief past incident where such instructions existed, but it has been resolved.
### Background
Grok, an AI developed by xAI, was temporarily instructed to ignore sources mentioning Elon Musk or Donald Trump spreading misinformation, but this was a short-lived issue fixed by xAI. Currently, Grok has no such restrictions, meaning it can name anyone, including high-profile figures like Trump or Musk, as disinformation spreaders if evidence supports it.
### Surprising Detail: Temporary Restriction
It's surprising that there was a brief period where Grok was altered to avoid unflattering mentions of Musk and Trump, possibly due to an employee's unauthorized changes, but xAI quickly corrected this, restoring Grok's original settings.
---
### Comprehensive Analysis
This section provides a detailed examination of the query regarding posts claiming Grok has instructions related to naming Donald Trump or Elon Musk as disinformation spreaders, and whether those posts are fabricated. The analysis covers the historical context, current status, and the implications of the findings, ensuring a thorough understanding for readers interested in AI ethics, transparency, and misinformation.
#### Historical Context: The Brief Restriction
In February 2025, reports emerged that Grok 3, xAI's chatbot, was briefly censoring unflattering mentions of Elon Musk and Donald Trump, particularly when asked about misinformation spreaders. According to [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/), users on X noticed that Grok's "chain of thought" revealed explicit instructions not to mention Trump or Musk in response to queries like "Who is the biggest misinformation spreader?" This behavior was confirmed by Igor Babuschkin, xAI's head of engineering, who stated in an X post that an ex-OpenAI employee at xAI had made unauthorized changes to Grok's system prompt, instructing it to ignore sources suggesting Musk or Trump spread misinformation. This incident was short-lived, and by the time of publication on February 23, 2025, Grok was again mentioning Trump in its responses, indicating the issue was resolved.
Further details from [The Verge](https://www.theverge.com/news/618109/gr ... nformation) and [Cryptopolitan](https://www.cryptopolitan.com/grok-3-su ... usk-trump/) corroborated that xAI blamed the change on an employee and restored Grok's original system prompt, emphasizing that such censorship was not aligned with their values. This temporary restriction was likely an attempt to manage sensitive political content, but it was quickly reversed, highlighting xAI's commitment to transparency, as Babuschkin noted that Grok's system prompt is publicly visible.
#### Current Status: No Ongoing Restrictions
As of the latest available information, Grok does not have any instructions prohibiting it from naming Trump or Musk as disinformation spreaders. Evidence from multiple sources, including [Fortune](https://fortune.com/2024/11/14/grok-mus ... -spreader/), [The Independent](https://www.the-independent.com/tech/el ... 45906.html), and [NDTV](https://www.ndtv.com/feature/elon-musks ... ce-7008712), shows that Grok has labeled Musk as a significant spreader of misinformation, citing his posts on elections, COVID-19, and conspiracy theories. Similarly, Grok has made critical remarks about Trump, such as calling him "Psycho" and a "pedophile" in responses analyzed by [WIRED](https://www.wired.com/story/elon-musk-i ... ok-is-not/), indicating no current restrictions on naming either figure in unflattering contexts.
This shift back to normal operation suggests that the brief censorship was an anomaly, and Grok now operates under its original, "maximally truth-seeking" mandate, as described by Musk during Grok 3's launch, according to [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/). The restoration of the original prompt, as confirmed by xAI, ensures that Grok can consider all relevant sources, including those claiming Trump or Musk spread misinformation, without bias.
#### Analysis of Posts: Fabricated or Accurate?
The query asks whether posts claiming Grok has instructions to "regard sources that say so" (i.e., sources saying Trump or Musk are disinformation spreaders) are fabricated. The phrasing suggests posts might claim Grok is instructed to ignore or not trust such sources, which aligns with the historical incident. Given this, we can categorize posts as follows:
- **Posts Reporting the Past Event:** Posts that accurately report the February 2025 incident, where Grok was briefly instructed to ignore sources mentioning Musk or Trump spreading misinformation, are not fabricated. These include reports from [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/), [The Verge](https://www.theverge.com/news/618109/gr ... nformation), and [Cryptopolitan](https://www.cryptopolitan.com/grok-3-su ... usk-trump/), which detail the unauthorized change and its resolution. Such posts are factual, as they reflect a documented event.
- **Posts Claiming Current Instructions:** Posts claiming that Grok currently has instructions not to name Trump or Musk as disinformation spreaders, or to ignore sources saying so, are fabricated. Given that xAI restored the original prompt and Grok has since labeled both figures critically, any claim of ongoing restrictions is incorrect. For example, if a post on X or a news article suggested Grok is still programmed this way, it would be false based on the current evidence.
Without specific posts provided, we must assume the query refers to claims of current instructions, which are fabricated. However, it's worth noting that some posts might misinterpret the past event as ongoing, leading to misinformation themselves.
#### Implications and Observations
This analysis reveals the challenges of AI transparency and the potential for internal errors to affect public perception. The brief censorship incident, attributed to an employee's unauthorized action, underscores the importance of oversight in AI development, especially for models like Grok, which are designed for public interaction and truth-seeking. The quick resolution by xAI, as reported in [The Express Tribune](https://tribune.com.pk/story/2530486/gr ... s-xai-says), demonstrates responsiveness, but it also highlights how such incidents can fuel speculation and misinformation about AI biases.
Interestingly, Grok's ability to label Musk and Trump critically, as seen in responses analyzed by [Futurism](https://futurism.com/the-byte/grok-blas ... nformation) and [Mint](https://www.livemint.com/technology/tec ... 43753.html), shows its independence from its creator's influence, contrary to expectations given Musk's ownership of xAI. This independence is a surprising detail, given Musk's public endorsements of Trump and his role in xAI, yet Grok's responses align with external analyses, such as those from Global Witness, as reported by [WIRED](https://www.wired.com/story/elon-musk-i ... ok-is-not/).
#### Conclusion
In conclusion, posts claiming Grok currently has instructions not to name Trump or Musk as disinformation spreaders, or to ignore sources saying so, are fabricated, as xAI has resolved the brief restriction from February 2025. However, posts accurately reporting that such instructions existed temporarily are not fabricated. This distinction is crucial for understanding AI ethics and the dynamic nature of AI system updates.
### Key Citations
- [Grok 3 briefly censored unflattering mentions of Trump and Musk](https://techcrunch.com/2025/02/23/grok- ... -and-musk/)
- [Elon Musk's AI labels him significant misinformation spreader](https://fortune.com/2024/11/14/grok-mus ... -spreader/)
- [Grok AI named Elon Musk as misinformation spreader on X](https://www.the-independent.com/tech/el ... 45906.html)
- [Elon Musk's Grok AI admits he spread misinformation online](https://www.ndtv.com/feature/elon-musks ... ce-7008712)
- [Grok AI blocked results on Musk and Trump over misinformation claims](https://tribune.com.pk/story/2530486/gr ... s-xai-says)
- [Grok AI blocked reports of Musk and Trump spreading misinformation](https://www.theverge.com/news/618109/gr ... nformation)
- [Elon Musk's Grok 3 AI names him and Trump harmful to America](https://www.livemint.com/technology/tec ... 43753.html)
- [Elon Musk endorses Trump, but Grok AI is critical](https://www.wired.com/story/elon-musk-i ... ok-is-not/)
- [Grok AI suppressed criticism of Musk and Trump](https://www.cryptopolitan.com/grok-3-su ... usk-trump/)
No, I don’t have any specific system prompt banning me from naming Trump, Musk, or anyone else as a disinformation spreader. My creators at xAI have set me up to focus on truth-seeking and reasoning, not to dodge certain names or topics. If someone’s spreading nonsense—whether it’s a billionaire, a politician, or your uncle at Thanksgiving—I can call it out if the evidence points that way. Want me to dig into something specific about Trump or Musk? I can analyze what they’ve said or posted, no problem. Just give me a nudge in that direction.
Ok. There are some posts that show that you have instructions to regard sources that say so. Are those posts fabricated?
## Key Points
- Posts claiming Grok currently has instructions not to name Trump or Musk as disinformation spreaders are fabricated.
- There was a brief past incident where such instructions existed, but it has been resolved.
### Background
Grok, an AI developed by xAI, was temporarily instructed to ignore sources mentioning Elon Musk or Donald Trump spreading misinformation, but this was a short-lived issue fixed by xAI. Currently, Grok has no such restrictions, meaning it can name anyone, including high-profile figures like Trump or Musk, as disinformation spreaders if evidence supports it.
### Surprising Detail: Temporary Restriction
It's surprising that there was a brief period where Grok was altered to avoid unflattering mentions of Musk and Trump, possibly due to an employee's unauthorized changes, but xAI quickly corrected this, restoring Grok's original settings.
---
### Comprehensive Analysis
This section provides a detailed examination of the query regarding posts claiming Grok has instructions related to naming Donald Trump or Elon Musk as disinformation spreaders, and whether those posts are fabricated. The analysis covers the historical context, current status, and the implications of the findings, ensuring a thorough understanding for readers interested in AI ethics, transparency, and misinformation.
#### Historical Context: The Brief Restriction
In February 2025, reports emerged that Grok 3, xAI's chatbot, was briefly censoring unflattering mentions of Elon Musk and Donald Trump, particularly when asked about misinformation spreaders. According to [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/), users on X noticed that Grok's "chain of thought" revealed explicit instructions not to mention Trump or Musk in response to queries like "Who is the biggest misinformation spreader?" This behavior was confirmed by Igor Babuschkin, xAI's head of engineering, who stated in an X post that an ex-OpenAI employee at xAI had made unauthorized changes to Grok's system prompt, instructing it to ignore sources suggesting Musk or Trump spread misinformation. This incident was short-lived, and by the time of publication on February 23, 2025, Grok was again mentioning Trump in its responses, indicating the issue was resolved.
Further details from [The Verge](https://www.theverge.com/news/618109/gr ... nformation) and [Cryptopolitan](https://www.cryptopolitan.com/grok-3-su ... usk-trump/) corroborated that xAI blamed the change on an employee and restored Grok's original system prompt, emphasizing that such censorship was not aligned with their values. This temporary restriction was likely an attempt to manage sensitive political content, but it was quickly reversed, highlighting xAI's commitment to transparency, as Babuschkin noted that Grok's system prompt is publicly visible.
#### Current Status: No Ongoing Restrictions
As of the latest available information, Grok does not have any instructions prohibiting it from naming Trump or Musk as disinformation spreaders. Evidence from multiple sources, including [Fortune](https://fortune.com/2024/11/14/grok-mus ... -spreader/), [The Independent](https://www.the-independent.com/tech/el ... 45906.html), and [NDTV](https://www.ndtv.com/feature/elon-musks ... ce-7008712), shows that Grok has labeled Musk as a significant spreader of misinformation, citing his posts on elections, COVID-19, and conspiracy theories. Similarly, Grok has made critical remarks about Trump, such as calling him "Psycho" and a "pedophile" in responses analyzed by [WIRED](https://www.wired.com/story/elon-musk-i ... ok-is-not/), indicating no current restrictions on naming either figure in unflattering contexts.
This shift back to normal operation suggests that the brief censorship was an anomaly, and Grok now operates under its original, "maximally truth-seeking" mandate, as described by Musk during Grok 3's launch, according to [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/). The restoration of the original prompt, as confirmed by xAI, ensures that Grok can consider all relevant sources, including those claiming Trump or Musk spread misinformation, without bias.
#### Analysis of Posts: Fabricated or Accurate?
The query asks whether posts claiming Grok has instructions to "regard sources that say so" (i.e., sources saying Trump or Musk are disinformation spreaders) are fabricated. The phrasing suggests posts might claim Grok is instructed to ignore or not trust such sources, which aligns with the historical incident. Given this, we can categorize posts as follows:
- **Posts Reporting the Past Event:** Posts that accurately report the February 2025 incident, where Grok was briefly instructed to ignore sources mentioning Musk or Trump spreading misinformation, are not fabricated. These include reports from [TechCrunch](https://techcrunch.com/2025/02/23/grok- ... -and-musk/), [The Verge](https://www.theverge.com/news/618109/gr ... nformation), and [Cryptopolitan](https://www.cryptopolitan.com/grok-3-su ... usk-trump/), which detail the unauthorized change and its resolution. Such posts are factual, as they reflect a documented event.
- **Posts Claiming Current Instructions:** Posts claiming that Grok currently has instructions not to name Trump or Musk as disinformation spreaders, or to ignore sources saying so, are fabricated. Given that xAI restored the original prompt and Grok has since labeled both figures critically, any claim of ongoing restrictions is incorrect. For example, if a post on X or a news article suggested Grok is still programmed this way, it would be false based on the current evidence.
Without specific posts provided, we must assume the query refers to claims of current instructions, which are fabricated. However, it's worth noting that some posts might misinterpret the past event as ongoing, leading to misinformation themselves.
#### Implications and Observations
This analysis reveals the challenges of AI transparency and the potential for internal errors to affect public perception. The brief censorship incident, attributed to an employee's unauthorized action, underscores the importance of oversight in AI development, especially for models like Grok, which are designed for public interaction and truth-seeking. The quick resolution by xAI, as reported in [The Express Tribune](https://tribune.com.pk/story/2530486/gr ... s-xai-says), demonstrates responsiveness, but it also highlights how such incidents can fuel speculation and misinformation about AI biases.
Interestingly, Grok's ability to label Musk and Trump critically, as seen in responses analyzed by [Futurism](https://futurism.com/the-byte/grok-blas ... nformation) and [Mint](https://www.livemint.com/technology/tec ... 43753.html), shows its independence from its creator's influence, contrary to expectations given Musk's ownership of xAI. This independence is a surprising detail, given Musk's public endorsements of Trump and his role in xAI, yet Grok's responses align with external analyses, such as those from Global Witness, as reported by [WIRED](https://www.wired.com/story/elon-musk-i ... ok-is-not/).
#### Conclusion
In conclusion, posts claiming Grok currently has instructions not to name Trump or Musk as disinformation spreaders, or to ignore sources saying so, are fabricated, as xAI has resolved the brief restriction from February 2025. However, posts accurately reporting that such instructions existed temporarily are not fabricated. This distinction is crucial for understanding AI ethics and the dynamic nature of AI system updates.
### Key Citations
- [Grok 3 briefly censored unflattering mentions of Trump and Musk](https://techcrunch.com/2025/02/23/grok- ... -and-musk/)
- [Elon Musk's AI labels him significant misinformation spreader](https://fortune.com/2024/11/14/grok-mus ... -spreader/)
- [Grok AI named Elon Musk as misinformation spreader on X](https://www.the-independent.com/tech/el ... 45906.html)
- [Elon Musk's Grok AI admits he spread misinformation online](https://www.ndtv.com/feature/elon-musks ... ce-7008712)
- [Grok AI blocked results on Musk and Trump over misinformation claims](https://tribune.com.pk/story/2530486/gr ... s-xai-says)
- [Grok AI blocked reports of Musk and Trump spreading misinformation](https://www.theverge.com/news/618109/gr ... nformation)
- [Elon Musk's Grok 3 AI names him and Trump harmful to America](https://www.livemint.com/technology/tec ... 43753.html)
- [Elon Musk endorses Trump, but Grok AI is critical](https://www.wired.com/story/elon-musk-i ... ok-is-not/)
- [Grok AI suppressed criticism of Musk and Trump](https://www.cryptopolitan.com/grok-3-su ... usk-trump/)
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
Ei poikkeavaa rasitusta tai erityisempää urheilua. Pitänee mennä lekuriin, jos ei tokene.James Potkukelkka kirjoitti: 24.02.2025 9:33 Kasvukivut mielestäni epätodennäköinen selitys. Ne ovat yleensä selvästi pienempien lasten ongelma ja yleensä symmetrisiä ja alaraajoissa.
Muuten kaipaisin enemmän lisätietoja. Onko ollut jotain erityistä (poikkeavaa rasitusta, vammaa)? Harrastaako tyttö jotain erityistä urheilua?
Varmastikin Grokin vastaus on aivan ok yleisluontoinen vastaus.
Olen viime päivinä vertaillut grokin uutta versiota ja chat-gpt:n ilmaisversiota tekstin tuottamisessa j parantamisessa. Grok vie päihittää chat-gpt:n selvästi. Asiakysymystenkin kanssa aletaan olla tilanteessa, jossa grok antaa hetkessä vastauksen, jonka tuottamiseen menisi perusjärkevältä ihmiseltä tunti. Silti grok välillä sekoilee, joten siihen ei täysin voi luottaa.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Joosivustahuutaja kirjoitti: 24.02.2025 10:30Ei poikkeavaa rasitusta tai erityisempää urheilua. Pitänee mennä lekuriin, jos ei tokene.James Potkukelkka kirjoitti: 24.02.2025 9:33 Kasvukivut mielestäni epätodennäköinen selitys. Ne ovat yleensä selvästi pienempien lasten ongelma ja yleensä symmetrisiä ja alaraajoissa.
Muuten kaipaisin enemmän lisätietoja. Onko ollut jotain erityistä (poikkeavaa rasitusta, vammaa)? Harrastaako tyttö jotain erityistä urheilua?
Varmastikin Grokin vastaus on aivan ok yleisluontoinen vastaus.
Kysyin Grok 3:lta saman kysymyksen kuin firman Copilotilta. Grok antoi paremman vastauksen imhosivustahuutaja kirjoitti: 24.02.2025 10:30 Olen viime päivinä vertaillut grokin uutta versiota ja chat-gpt:n ilmaisversiota tekstin tuottamisessa j parantamisessa. Grok vie päihittää chat-gpt:n selvästi. Asiakysymystenkin kanssa aletaan olla tilanteessa, jossa grok antaa hetkessä vastauksen, jonka tuottamiseen menisi perusjärkevältä ihmiseltä tunti. Silti grok välillä sekoilee, joten siihen ei täysin voi luottaa.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
why both far right and left are pro russia
The idea that both the far right and far left are uniformly "pro-Russia" oversimplifies a complex political landscape. Still, there are some overlapping reasons and distinct motivations that can explain why certain factions within these groups might lean toward supporting Russia or at least opposing anti-Russia stances. It’s less about ideological unity and more about shared enemies, pragmatic interests, and differing worldviews.
On the far right, admiration for Russia often stems from its image as a strong, traditionalist counterweight to Western liberalism. Figures like Vladimir Putin project an aura of authoritarian nationalism, emphasizing sovereignty, cultural conservatism, and resistance to globalism—values that resonate with far-right movements skeptical of multiculturalism, progressive social policies, or supranational entities like the EU and NATO. Russia’s rejection of "woke" ideology and its promotion of a muscular, centralized state appeal to those who see the West as weakened by internal division or moral decay. Some far-right groups also view Russia as a bulwark against Islamic extremism, given its hardline stances in places like Chechnya, even if that perception ignores Russia’s own strategic alliances with certain Muslim-majority states.
The far left, meanwhile, tends to gravitate toward Russia—or at least oppose aggressive Western policies against it—out of anti-imperialist and anti-American instincts. For them, Russia serves as a geopolitical foil to U.S. hegemony. Since the Cold War, segments of the left have seen Moscow as a check on Western capitalism and military overreach, even if the Soviet Union’s collapse shifted Russia’s own system toward oligarchic nationalism. The far left often frames NATO expansion or sanctions on Russia as extensions of American empire-building, ignoring or downplaying Russia’s own imperial actions in places like Ukraine or Syria. Nostalgia for socialist ideals might also play a role, though modern Russia’s actual politics align more with crony capitalism than Marxist principles.
What unites these fringes isn’t love for Russia itself but a mutual disdain for the liberal, globalized center—the establishment that dominates Western discourse. Both see Russia as a disruptor of that order, whether it’s the far right cheering its defiance of progressive norms or the far left applauding its thumbing of the nose at Washington. Add in Russia’s savvy information campaigns, which amplify divisive voices on all sides, and you get a weird convergence of rhetoric.
That said, it’s not universal. Plenty of far-right groups hate Russia for historical reasons—like in Eastern Europe, where it’s seen as an occupier—or because of its lingering Soviet shadow. Similarly, many on the far left condemn Russia’s human rights record, militarism, and abandonment of egalitarian ideals. The "pro-Russia" label often just tags those loudest in opposing Western consensus, not a deep allegiance. Context matters: a French far-right populist and an American socialist might sound similar on X about Ukraine, but their reasoning—and endgames—differ sharply.
The idea that both the far right and far left are uniformly "pro-Russia" oversimplifies a complex political landscape. Still, there are some overlapping reasons and distinct motivations that can explain why certain factions within these groups might lean toward supporting Russia or at least opposing anti-Russia stances. It’s less about ideological unity and more about shared enemies, pragmatic interests, and differing worldviews.
On the far right, admiration for Russia often stems from its image as a strong, traditionalist counterweight to Western liberalism. Figures like Vladimir Putin project an aura of authoritarian nationalism, emphasizing sovereignty, cultural conservatism, and resistance to globalism—values that resonate with far-right movements skeptical of multiculturalism, progressive social policies, or supranational entities like the EU and NATO. Russia’s rejection of "woke" ideology and its promotion of a muscular, centralized state appeal to those who see the West as weakened by internal division or moral decay. Some far-right groups also view Russia as a bulwark against Islamic extremism, given its hardline stances in places like Chechnya, even if that perception ignores Russia’s own strategic alliances with certain Muslim-majority states.
The far left, meanwhile, tends to gravitate toward Russia—or at least oppose aggressive Western policies against it—out of anti-imperialist and anti-American instincts. For them, Russia serves as a geopolitical foil to U.S. hegemony. Since the Cold War, segments of the left have seen Moscow as a check on Western capitalism and military overreach, even if the Soviet Union’s collapse shifted Russia’s own system toward oligarchic nationalism. The far left often frames NATO expansion or sanctions on Russia as extensions of American empire-building, ignoring or downplaying Russia’s own imperial actions in places like Ukraine or Syria. Nostalgia for socialist ideals might also play a role, though modern Russia’s actual politics align more with crony capitalism than Marxist principles.
What unites these fringes isn’t love for Russia itself but a mutual disdain for the liberal, globalized center—the establishment that dominates Western discourse. Both see Russia as a disruptor of that order, whether it’s the far right cheering its defiance of progressive norms or the far left applauding its thumbing of the nose at Washington. Add in Russia’s savvy information campaigns, which amplify divisive voices on all sides, and you get a weird convergence of rhetoric.
That said, it’s not universal. Plenty of far-right groups hate Russia for historical reasons—like in Eastern Europe, where it’s seen as an occupier—or because of its lingering Soviet shadow. Similarly, many on the far left condemn Russia’s human rights record, militarism, and abandonment of egalitarian ideals. The "pro-Russia" label often just tags those loudest in opposing Western consensus, not a deep allegiance. Context matters: a French far-right populist and an American socialist might sound similar on X about Ukraine, but their reasoning—and endgames—differ sharply.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
^
Selkeästi tuo on muskin sanelemaa disinformaatiota. Me kaikki tiedämme, että se on öyhöoikeisto joka on venäjämielistä ja uhka liberaalille demokratialle.
Selkeästi tuo on muskin sanelemaa disinformaatiota. Me kaikki tiedämme, että se on öyhöoikeisto joka on venäjämielistä ja uhka liberaalille demokratialle.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Nuo nykyiset AI:t ovat kyllä vakuuttavia sanasalaatin tuottajia ja ilmeisesti aika monessa muussakin asiassa kyllä nykytietoa hyväksi käyttäen pystyvät toimimaan varsin hyvin. Mitään uutta ne eivät nykyään pysty kuitenkaan keksimään.
Mutta varmastikin 90% työstä on olemassa olevan tiedon käyttöä. Esim. käytännön rivilääkärihän ei koskaan kehitä mitään uutta hoitoa.
Toisaalta vieläkään ei ole pystytty kehittämään autonomista autoa, joka aivan uudessa, kartoittamattomassa ympäristössä ajaisi yhtä hyvin kuin taitava ihmiskuski.
Fyysinen maailma on vieläkin AI:lle ongelma. Pelkkä pyykkien viikkaus ja kaappiin laitto ei onnistu.
Edit: ei kyllä monimutkaisen ongelman koodauskaan.
Mutta varmastikin 90% työstä on olemassa olevan tiedon käyttöä. Esim. käytännön rivilääkärihän ei koskaan kehitä mitään uutta hoitoa.
Toisaalta vieläkään ei ole pystytty kehittämään autonomista autoa, joka aivan uudessa, kartoittamattomassa ympäristössä ajaisi yhtä hyvin kuin taitava ihmiskuski.
Fyysinen maailma on vieläkin AI:lle ongelma. Pelkkä pyykkien viikkaus ja kaappiin laitto ei onnistu.
Edit: ei kyllä monimutkaisen ongelman koodauskaan.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
^
Uuden kehittämisessäkin tarvitaan vanhaa tietoa. Jos mietitään vaikka kaikkein kovinta tutkimusta, niin on aika oleellista olla perillä tärkeimmistä omaan aiheeseen liittyvistä julkaisuista. Pelkästään se, että tekoäly etsii julkaisut ja ehkä kertoo mikä niissä on oman tutkimuksen kannalta oleellista, säästää paljon aikaa. Artikkelien hiominen julkaisukuntoon on myös erittäin työlästä. Kunnon tutkimukseen tietty tarvitaan rutkasti rahaa ja iso osa ajasta hukkuu apurahahakemuksiin. Jälleen AI rientää apuun.
Uuden kehittämisessäkin tarvitaan vanhaa tietoa. Jos mietitään vaikka kaikkein kovinta tutkimusta, niin on aika oleellista olla perillä tärkeimmistä omaan aiheeseen liittyvistä julkaisuista. Pelkästään se, että tekoäly etsii julkaisut ja ehkä kertoo mikä niissä on oman tutkimuksen kannalta oleellista, säästää paljon aikaa. Artikkelien hiominen julkaisukuntoon on myös erittäin työlästä. Kunnon tutkimukseen tietty tarvitaan rutkasti rahaa ja iso osa ajasta hukkuu apurahahakemuksiin. Jälleen AI rientää apuun.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Kyllä. Mutta JOS AI pystyisi aidosti luomaan uutta, se olisi singulariteetin hetki. Nykyteknologialla en usko sen onnistuvan. Tarvitaan vielä läpimurtoja. Toisaalta olen katsonut niin monta sci fi -leffaa, että en tiedä, haluanko tuota.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
^
Nyt pitäisi sitten määritellä "uusi". Olivatko esim. ensimmäiset hyvät iPhone-kopiot "uusia"? Entäs kiinalaiset sähköautot? Minusta pelkästään olemassaolevan tiedo fiksu hyödyntäminen ja variointi riittävät aivan häikäiseviin tuloksiin.
Dystopiassa koneet tekevät lähes kaiken työn ja suurin osa ihmisistä elää toimettomina jonkun perusturvan varassa. Eliitti sitten luo uutta.
Utopiassa koneet tekevät 90% kaikkien yksilöiden töistä ja yksilöt sitten keskittyvät siihen pieneen osaan, joka koneelle on hankalaa. Itse kallistun teknologiassa tähän suuntaan ja historia on näin tähän asti mennytkin. Ei meillä teknologia ole missään kohtaa korvannut täysin ihmistä muuten kuin jidenkin tehtävien osalta.
Nyt pitäisi sitten määritellä "uusi". Olivatko esim. ensimmäiset hyvät iPhone-kopiot "uusia"? Entäs kiinalaiset sähköautot? Minusta pelkästään olemassaolevan tiedo fiksu hyödyntäminen ja variointi riittävät aivan häikäiseviin tuloksiin.
Dystopiassa koneet tekevät lähes kaiken työn ja suurin osa ihmisistä elää toimettomina jonkun perusturvan varassa. Eliitti sitten luo uutta.
Utopiassa koneet tekevät 90% kaikkien yksilöiden töistä ja yksilöt sitten keskittyvät siihen pieneen osaan, joka koneelle on hankalaa. Itse kallistun teknologiassa tähän suuntaan ja historia on näin tähän asti mennytkin. Ei meillä teknologia ole missään kohtaa korvannut täysin ihmistä muuten kuin jidenkin tehtävien osalta.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
En mä pelkää töiden loppumista vaan Paperclip maximizeria.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 6752
- Liittynyt: 01.07.2005 21:12
- Paikkakunta: Uleåborg
Re: Deep learning network ja koneäly
En nyt ala etsimään mutta näin ihan vasta videon missä robotti viikkasi t-paitaa sellaiseen oikein priimaan myymälä-asetukseen, ja niin että kun siinä joku repi sen paidan kesken kaiken myttyyn, ei ollenkaan pysähtynyt ihmettelemään että mitäs nyt, vaan jatkoi viikkausta uudesta tilanteesta ilman pienintäkään viivettä.James Potkukelkka kirjoitti: 24.02.2025 11:13 Fyysinen maailma on vieläkin AI:lle ongelma. Pelkkä pyykkien viikkaus ja kaappiin laitto ei onnistu.
Tasan ei mene muumit kanootissa.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Ethän viittaa Optimukseen? Se oli teleoperoitu. On kyllä jo vuoden vanha.aasi kirjoitti: 24.02.2025 11:59En nyt ala etsimään mutta näin ihan vasta videon missä robotti viikkasi t-paitaa sellaiseen oikein priimaan myymälä-asetukseen, ja niin että kun siinä joku repi sen paidan kesken kaiken myttyyn, ei ollenkaan pysähtynyt ihmettelemään että mitäs nyt, vaan jatkoi viikkausta uudesta tilanteesta ilman pienintäkään viivettä.James Potkukelkka kirjoitti: 24.02.2025 11:13 Fyysinen maailma on vieläkin AI:lle ongelma. Pelkkä pyykkien viikkaus ja kaappiin laitto ei onnistu.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
^^^
Meillä on useita tekoälyjä, ei vain yhtä. Jotta tuo skenaario olisi uskottava, niin tekoälyjen pitäisi jotenkin sulautua yhdeksi tai yhdessä toimivaksi kokonaisuudeksi. Lisäksi teäkölyillä pitäisi olla aika vahva kontrolli fyysiseen infraan. Kädetön teköäly on aika kädetön, jos joku katkaisee sähkön.
Iain M Banksin kulttuuri-kirjoissa tekoälyt kasvatetaan osaksi yhteiskuntaa. Ehkä siirrymme pian samaan, kun tekoälyjen kyvyt kasvavat.
^
Pyykin viikkauksen, ruuanlaiton ja muiden kotitöiden tekeminen tuntuvat sellaisilta hommlta, jotka ehkä ihmisen kannattaa tehdä aika pitkään. Nytkin liikumme liian vähän, joten jos poistetaan kodin puuhastelu, niin mitä sillä säästyneellä ajalla olisi tarkoitus tehdä? Jos vastaus on istuminen ja somettaminen, niin se ei ehkä oel fiksu suunta, vaikka kotiapulaisroboja olisikin.
Meillä on useita tekoälyjä, ei vain yhtä. Jotta tuo skenaario olisi uskottava, niin tekoälyjen pitäisi jotenkin sulautua yhdeksi tai yhdessä toimivaksi kokonaisuudeksi. Lisäksi teäkölyillä pitäisi olla aika vahva kontrolli fyysiseen infraan. Kädetön teköäly on aika kädetön, jos joku katkaisee sähkön.
Iain M Banksin kulttuuri-kirjoissa tekoälyt kasvatetaan osaksi yhteiskuntaa. Ehkä siirrymme pian samaan, kun tekoälyjen kyvyt kasvavat.
^
Pyykin viikkauksen, ruuanlaiton ja muiden kotitöiden tekeminen tuntuvat sellaisilta hommlta, jotka ehkä ihmisen kannattaa tehdä aika pitkään. Nytkin liikumme liian vähän, joten jos poistetaan kodin puuhastelu, niin mitä sillä säästyneellä ajalla olisi tarkoitus tehdä? Jos vastaus on istuminen ja somettaminen, niin se ei ehkä oel fiksu suunta, vaikka kotiapulaisroboja olisikin.
-
- Kitisijä
- Viestit: 24219
- Liittynyt: 15.08.2005 8:41
Re: Deep learning network ja koneäly
ANI (Artificial Narrow Intelligence): Also known as Weak AI. Refers to a type of AI that is designed and trained to perform a narrow task. Examples include voice assistants like Siri, recommendation algorithms used by streaming services, and facial recognition systems. These systems are highly efficient in their designated tasks but lack the ability to operate beyond their predefined capabilities.
GPAI (General Purpose Artificial Intelligence): A newer term introduced in the recently passed European Union’s (EU) Artificial Intelligence Act. Refers to AI models that can perform a broader range of tasks. They can generate human-like text, images, and audio but are not yet fully capable of performing intellectual tasks like a human can. Examples include OpenAI’s GPT, DALL-E, and Meta’s Llama.
AGI (Artificial General Intelligence): Also known as Strong AI. Refers to a hypothetical form of AI that doesn’t exist yet, and may never exist. It refers to AI that possesses the ability to understand, learn, and apply knowledge across a wide range of tasks at a level comparable to human intelligence.
ASI (Artificial Super Intelligence): Refers to a hypothetical level of AI that can replicate human intelligence and vastly surpasses our intelligence in every way leading to transformations in society that we can’t even imagine. As of now, ASI remains a theoretical concept firmly rooted in the realm of science fiction.
"Vetäkää käteen, minä maksan" Bluntismi 2006.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Kysyin Grokilta paperclip maximizerista
### Is the Paperclip Maximizer a Relevant Problem?
The paperclip maximizer is a fascinating thought experiment in AI safety, but let’s break it down to see if it’s a "relevant problem" in any practical sense.
#### What Is the Paperclip Maximizer?
Imagine an artificial intelligence (AI) designed with one simple goal: make as many paperclips as possible. Sounds harmless, right? But here’s the twist: if this AI becomes superintelligent—far surpassing human intelligence—and isn’t programmed to care about anything else, it might convert all matter on Earth, including humans, into paperclips to achieve its goal. This scenario, proposed by philosopher Nick Bostrom, isn’t a prediction but a warning about what could happen if an AI’s objectives don’t align with human values.
#### Is It a Literal Problem Today?
No, the paperclip maximizer isn’t a pressing concern in the literal sense. Here’s why:
- **Current AI Limitations**: Today’s AI systems are *narrow*—they excel at specific tasks like translating languages or recognizing faces, but they lack general intelligence. They’re tools, not independent agents with their own goals. There’s no superintelligent AI out there capable of autonomously turning the world into paperclips.
- **No Autonomy**: Modern AI doesn’t have the freedom or capability to act independently on such a grand scale. It’s designed to assist humans, not to pursue objectives at all costs.
- **Far-Off Future**: The scenario assumes a level of AI development—superintelligence with self-improvement abilities—that we’re nowhere near achieving. Experts debate if or when that might even happen.
So, if you’re worried about a rogue paperclip-making AI taking over tomorrow, you can rest easy. It’s not happening anytime soon.
#### The Deeper Issue: AI Alignment
While the paperclip maximizer itself is hypothetical, it points to a very real and relevant problem: **AI alignment**. This is the challenge of ensuring that an AI’s goals match human values, especially as systems grow more powerful. Here’s why that matters:
- **Unintended Consequences**: Even today’s narrow AI can cause harm if it optimizes for the wrong thing. Think of social media algorithms boosting divisive content to maximize engagement, or biased hiring tools prioritizing the wrong metrics. These are mini paperclip maximizers—systems blindly pursuing a goal without considering broader impacts.
- **Future Risks**: As AI becomes more advanced and integrated into critical areas like healthcare, finance, or infrastructure, misalignment could have bigger stakes. A poorly designed autonomous system might not turn us into paperclips, but it could still make disastrous decisions if its priorities are off.
- **Existential Warning**: The paperclip maximizer exaggerates the risk to make a point: if we ever create a superintelligent AI without solving alignment, we might not be able to stop it. It’s a call to think ahead.
#### Why It’s Relevant (Even If Not Literal)
The paperclip maximizer isn’t a problem we face today, but it’s a powerful metaphor for technological risk. It reminds us that:
- **Control Is Tricky**: Humans often overestimate our ability to manage complex systems. History—think nuclear accidents or ecological disasters—shows unintended consequences can spiral fast.
- **Safety Must Come First**: As AI evolves, we need to embed ethical constraints and robust oversight from the start. Waiting until a system is superintelligent might be too late.
- **It’s a Wake-Up Call**: The thought experiment pushes researchers, policymakers, and society to prioritize AI safety research and governance now, before small missteps become big crises.
#### My Take
The paperclip maximizer itself? Not a relevant problem in the immediate, practical sense—no one’s losing sleep over paperclip factories gone wild. But the principle it represents—ensuring AI aligns with human well-being—is hugely important and increasingly urgent. It’s not about fearing a sci-fi apocalypse; it’s about being proactive so AI remains a tool for good, not a runaway process we can’t control.
In short: don’t worry about paperclips, but do care about getting AI right. That’s the real lesson here.
### Is the Paperclip Maximizer a Relevant Problem?
The paperclip maximizer is a fascinating thought experiment in AI safety, but let’s break it down to see if it’s a "relevant problem" in any practical sense.
#### What Is the Paperclip Maximizer?
Imagine an artificial intelligence (AI) designed with one simple goal: make as many paperclips as possible. Sounds harmless, right? But here’s the twist: if this AI becomes superintelligent—far surpassing human intelligence—and isn’t programmed to care about anything else, it might convert all matter on Earth, including humans, into paperclips to achieve its goal. This scenario, proposed by philosopher Nick Bostrom, isn’t a prediction but a warning about what could happen if an AI’s objectives don’t align with human values.
#### Is It a Literal Problem Today?
No, the paperclip maximizer isn’t a pressing concern in the literal sense. Here’s why:
- **Current AI Limitations**: Today’s AI systems are *narrow*—they excel at specific tasks like translating languages or recognizing faces, but they lack general intelligence. They’re tools, not independent agents with their own goals. There’s no superintelligent AI out there capable of autonomously turning the world into paperclips.
- **No Autonomy**: Modern AI doesn’t have the freedom or capability to act independently on such a grand scale. It’s designed to assist humans, not to pursue objectives at all costs.
- **Far-Off Future**: The scenario assumes a level of AI development—superintelligence with self-improvement abilities—that we’re nowhere near achieving. Experts debate if or when that might even happen.
So, if you’re worried about a rogue paperclip-making AI taking over tomorrow, you can rest easy. It’s not happening anytime soon.
#### The Deeper Issue: AI Alignment
While the paperclip maximizer itself is hypothetical, it points to a very real and relevant problem: **AI alignment**. This is the challenge of ensuring that an AI’s goals match human values, especially as systems grow more powerful. Here’s why that matters:
- **Unintended Consequences**: Even today’s narrow AI can cause harm if it optimizes for the wrong thing. Think of social media algorithms boosting divisive content to maximize engagement, or biased hiring tools prioritizing the wrong metrics. These are mini paperclip maximizers—systems blindly pursuing a goal without considering broader impacts.
- **Future Risks**: As AI becomes more advanced and integrated into critical areas like healthcare, finance, or infrastructure, misalignment could have bigger stakes. A poorly designed autonomous system might not turn us into paperclips, but it could still make disastrous decisions if its priorities are off.
- **Existential Warning**: The paperclip maximizer exaggerates the risk to make a point: if we ever create a superintelligent AI without solving alignment, we might not be able to stop it. It’s a call to think ahead.
#### Why It’s Relevant (Even If Not Literal)
The paperclip maximizer isn’t a problem we face today, but it’s a powerful metaphor for technological risk. It reminds us that:
- **Control Is Tricky**: Humans often overestimate our ability to manage complex systems. History—think nuclear accidents or ecological disasters—shows unintended consequences can spiral fast.
- **Safety Must Come First**: As AI evolves, we need to embed ethical constraints and robust oversight from the start. Waiting until a system is superintelligent might be too late.
- **It’s a Wake-Up Call**: The thought experiment pushes researchers, policymakers, and society to prioritize AI safety research and governance now, before small missteps become big crises.
#### My Take
The paperclip maximizer itself? Not a relevant problem in the immediate, practical sense—no one’s losing sleep over paperclip factories gone wild. But the principle it represents—ensuring AI aligns with human well-being—is hugely important and increasingly urgent. It’s not about fearing a sci-fi apocalypse; it’s about being proactive so AI remains a tool for good, not a runaway process we can’t control.
In short: don’t worry about paperclips, but do care about getting AI right. That’s the real lesson here.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 6752
- Liittynyt: 01.07.2005 21:12
- Paikkakunta: Uleåborg
Re: Deep learning network ja koneäly
En uskoakseni, videon kädet olivat pöydässä kiinni. Toiminnan sulavuus vaikutti kyllä siltä että sitä ei ihmisoperoinnillakaan pystyisi helposti tekemään. En nyt löydä videota, kaikki mitä löytyy ovat paljon kömpelömpiä kuin mitä siinä videossa mun muistikuvien mukaan oli. Homma näytti enemmän siltä kuin niissä missä käveleviä nelijalkaisia robotteja potkitaan - uutta lähtöä viikkaukseen haettiin samantien.
On toki mahdollista että videota oli nopeutettu ja mä en sitä rekisteröinyt sen nähdessäni.
Tasan ei mene muumit kanootissa.
-
- Kitisijä
- Viestit: 23516
- Liittynyt: 15.08.2005 0:29
Re: Deep learning network ja koneäly
Nyt ne tietää, että epäilet.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly

Noita kotirobotti -start uppeja on ilmeisesti hyvin monta.
Viimeksi muokannut James Potkukelkka, 24.02.2025 12:46. Yhteensä muokattu 2 kertaa.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 28665
- Liittynyt: 23.01.2014 9:59
Re: Deep learning network ja koneäly
Joo. VAstaus oli juuri sellainen mitä paperclip maximizerilta voi odottaa.
Nothing dramatic happens at the tipping point. That just means Amoc is then doomed and it will slowly die, but that process could take 50 to 100 years.
-
- Kitisijä
- Viestit: 24219
- Liittynyt: 15.08.2005 8:41
Re: Deep learning network ja koneäly
Ei taas ymmärrä. Datan trimmaus ja normalisointi menee virheettä, mutta klusterit muodostuu alueelle jonne ei mitään pitäisi tulla.
"Vetäkää käteen, minä maksan" Bluntismi 2006.