Caldeirão da Bolsa

A Revolução da Inteligencia Artificial

Espaço dedicado a todo o tipo de troca de impressões sobre os mercados financeiros e ao que possa condicionar o desempenho dos mesmos.

Re: A Revolução da Inteligencia Artificial

por BearManBull » 25/7/2025 8:29

OpenAI prepares to launch GPT-5 in August, The Verge reports

July 24 (Reuters) - Artificial intelligence pioneer OpenAI plans to launch its GPT-5 model as early as August, The Verge reported on Thursday, citing sources familiar with the plans.
The new model, which was expected to launch this summer, will be positioned as an AI system that incorporates distinct models and can perform different functions as opposed to just a single AI model.

The Microsoft-backed (MSFT.O), opens new tab startup's GPT-5 will incorporate its o3 model along with other technologies, CEO Sam Altman had said in February, in a bid to simplify its offerings.
The startup ultimately aims to merge the o-series and GPT-series models as it looks to create AI systems that can utilize all available tools and handle a variety of tasks.
"While GPT-5 looks likely to debut in early August, OpenAI's planned release dates often shift to respond to development challenges, server capacity issues, or even rival AI model announcements and leaks," according to the report.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 23/7/2025 19:15

Com a recente final das Olimpiadas da Matemática, vai daí, todos (OpenAI, Google e xAI neste caso via um repost do Elon no x/Twitter) dizem mais declarada ou oficiosamente, que ganharam uma medalha de ouro. Bom, vamos lá ver...

https://www.reuters.com/world/asia-pacific/google-clinches-milestone-gold-global-math-competition-while-openai-also-claims-2025-07-22/

Na verdade, só a Google submeteu oficialmente as respostas do seu modelo ao juri do IMO. E, mesmo assim, não se submeteu ao prémio monetário específico (competição) que existe para AI (AIMO prize)...
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 21/7/2025 23:16

BearManBull Escreveu:No mundo real é estocástico.

Usando o mesmo framework de rede e os mesmo numero de parametros de entrada com a mesma resoluçao uma rede treinada por mim pode dar um resultado diferente de uma rede treinada por ti.


Sim, certo, é possível. Máquinas diferentes (até diferenças de arredondamento entre diferente equipamento/hardware). Tenta-se reduzir ao máximo mas é possível (é difícil/impossível garantir a 100% que não ocorre, à escala a que já estamos a trabalhar).


BearManBull Escreveu:No tal exemplo da rede convolucional para detectar numeros em imagens, basta alterar as imagens de treino e o resultado das probabilidade do softmax para uma imagem de um 9 num caso vai ser (...)


Ok, mas aqui começa-se a misturar questões, pois já não é o mesmo que no ponto anterior. Alterar as imagens de treino é alterar os inputs (incluindo alterar a sequência) e, por conseguinte, também, a alterar qual é o modelo que estás a avaliar em dada iteração.


BearManBull Escreveu:Enquanto que em programação convencional com algoritmos, independentemente da linguagem que se usar para implementar o mesmo algoritmo resultado irá sempre o mesmo independentemente de quem o faça ou das circunstancias.


Não está realmente [completamente] imune (por exemplo sujeito a diferenças de hardware). Se a questão é "o mundo real" (como colocaste na primeira parte, e bem), a questão também se levanta em programação convencional (diferenças de equipamento/hardware, sistema operativo, etc). Podemos alegar que o risco de exposição/ocorrência poderá não ser o mesmo.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 21/7/2025 23:06

No mundo real é estocástico.

Usando o mesmo framework de rede e os mesmo numero de parametros de entrada com a mesma resoluçao uma rede treinada por mim pode dar um resultado diferente de uma rede treinada por ti.


No tal exemplo da rede convolucional para detectar numeros em imagens, basta alterar as imagens de treino e o resultado das probabilidade do softmax para uma imagem de um 9 num caso vai ser
9 - 35%
4 - 34%
7 - 15%
1 - 14%
5 - 0,9 %
...

e noutro
4 - 35%
9 - 34%
7 - 15%
1 - 14%
5 - 0,9 %


Enquanto que em programação convencional com algoritmos, independentemente da linguagem que se usar para implementar o mesmo algoritmo resultado irá sempre o mesmo independentemente de quem o faça ou das circunstancias.

O algoritmo podia ser algo intrincado que tenta analisar se a linha vai para esquerda para baixo para cima (tentar "seguir o movimento da caneta").

Portanto na realidade a resolver problemas a abordagem com redes neuronais é sempre estocástica ou pelo menos semi, mas atendendo á teoria quântica o próprio pensamento humano é estocástico...
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 21/7/2025 12:19

bearmanbull Escreveu:O que eu quero dizer ultimamente é que os pesos das redes são obtidos de forma estocástica.

Eu já cobri isto logo no início. O treino pode ser determinístico ou estocástico. Frequentemente forçamos determinístico, dado que é mais conveniente (elimina um factor de variabilidade e facilita na análise da evolução do desempenho ao longo do desenvolvimento, eg, alteramos um hiperparametro e voltamos a treinar, se o treino for estocástico fica mais complicado saber se a alteração do hiperparametro foi benéfica ou se foi apenas que "tivemos mais sorte" no treino). Mas, sim, pode ser das duas formas. Eu pessoalmente prefiro determinístico (para assegurar determinismo, na prática, não basta fixar a seed, convém acrescentar mais uma data de condições como assegurar algoritmos de backpropagation e autotuning sejam determinísticos também).

bearmanbull Escreveu:Treina-se a rede e é um "hope for the best", mas na realidade existe uma probabilidade que o treino resulte em algo que não tem absolutamente nada que ver com o efeito desejado.

A questão do efeito da rede não ter nada que ver com o desejado não tem propriamente que ver com o que temos estado a discutir. Depende da arquitectura, do volume de dados e de duração do treino, dos hiperparametros etc. O resultado pode ser melhor ou pior, na medida em que conseguirmos convergência (e onde essa convergência é realizada) dependendo dos parametros que utilizamos pode convergir para um mínimo local que está longe do que consideramos um bom desempenho. Mas isto tanto ocorre com treino determinístico ou estocástico. Estão aqui a misturar-se conceitos distintos.

bearmanbull Escreveu:A forma como a rede se executa sim. A forma como queres que a rede leia um 1,9,7 ou 4 não.E novamente, quando treinas uma rede tens probabilidade x de ler qualquer um desses valores para um input especifico.

Aqui também é preciso ter bastante cuidado com o que se pretende dizer com "tens probabilidade x de ler qualquer um desses valores". Basicamente já cobri atrás. Mas mesmo quando colocamos o treino como determinístico, podemos entender que o output é de natureza probabilística ao longo do treino (depende do estado da rede a cada iteração, isto é, de quais são os pesos da rede na altura da chamada e que dependem de uma lista enorme de parametros - learning rate, shuffle, etc, etc - portanto, no limite a resposta da rede vai ser um distribuição, com tantos eventos distintos para cada input específico quanto o número de epochs, utilizando um treino tradicional). No entanto, isto pode ocorrer com treino determinístico. Convém distinguir porque é que isto está a acontecer - e o que que estamos a descrever exactamente - e não equacionar imediatamente "probabilístico" e "distribuição" com "estocástico".

Posso expandir e explicar melhor se alguma coisa tiver ficado confusa (estou a tentar ser sucinto).
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 21/7/2025 11:39

O que eu quero dizer ultimamente é que os pesos das redes são obtidos de forma estocástica.

Treina-se a rede e é um "hope for the best", mas na realidade existe uma probabilidade que o treino resulte em algo que não tem absolutamente nada que ver com o efeito desejado.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por BearManBull » 21/7/2025 11:23

na verdade uma rede neuronal é, em última instância, um algoritmo.


A forma como a rede se executa sim.

A forma como queres que a rede leia um 1,9,7 ou 4 não.

E novamente, quando treinas uma rede tens probabilidade x de ler qualquer um desses valores para um input especifico.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 21:34

BearManBull Escreveu:Ok tens razoa.

Mas vou dizer de minha justiça que neste caso a tal rede seria idempotente e deterministica. Idempotente porque nao altera o estado de nada.


Sim, é perfeitamente possível. Posso dar vários exemplos rápidos que julgo que são esclarecedores. Consideremos o objecto (argumento/input) veículo, que pode ter 3 ou 4 rodas, e a função converte_em_triciclo() com cada um dos algoritmos seguintes.


Determinístico - Não idempotente

Algoritmo:
Se o veículo tem 4 rodas, apaga ambas e insere apenas a roda traseira esquerda;
Se o veículo tem 3 rodas, remove a roda traseira existente e cria uma nova roda traseira no lado oposto.


Não Determinístico - Idempotente

Algoritmo:
Se o veículo tem 4 rodas, escolhe aleatoriamente(!) qual das traseiras elimina;
Se o veiculo tem 3 rodas, não faz nada.


Não Determinístico - Não idempotente

Algoritmo:
Remove as rodas traseiras existentes;
Cria uma nova roda traseira em posição aleatória.




Quanto à alucinação, é outra questão e interessante. Convém no entanto esclarecer que alucinação, no contexto de modelos generativos (LLM em particular) diz respeito ao modelo criar/tratar/inventar algo que é dado/considerado como factual (quando não o é). O que não é bem o mesmo que simplesmente errar (errar é um conceito mais abrangente do que o de alucinação; alucinação é um tipo mais específico de erro).



Edit: so reparei depois mas a certa altura dizes que "não é como um algoritmo"; depreendo que estarias a referir-te a algoritmo mais no sentido de "algoritmo convencional" mas, na verdade uma rede neuronal é, em última instância, um algoritmo. Pertence a uma família específica de algoritmos, cujas regras internas (estabelecidas pelos pesos da rede) foram aprendidos com base em dados de treino. E tendemos a referir-nos aos modelos AI com termos mais específicos. Mas é um algoritmo (creio que se pode dizer mesmo que é um algoritmo por definição).
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 21:09

Ok tens razoa.

Mas vou dizer de minha justiça que neste caso a tal rede seria idempotente e deterministica. Idempotente porque nao altera o estado de nada.

Mas nem era onde eu queria chegar, que era para o alerta das alucinaçoes e da natureza estocastica de como se geram as redes e de que no tal exemplo dos numeros existe uma probabilidade de ler 7, 9, 4 ou 1

Nao é como ter um algoritmo

Find higher point in the left
check next pixel
goes right?
check until it changes direction
direction chnages down in diagonal to left?
7

Aqui um exemplo do GPT a alucinar com justamente esta assunto.

O estado do sistema é alterado ao modificar-se o valor da varivel.
Anexos
Screenshot 2025-07-20 at 22.08.12.png
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 20:20

BearManBull Escreveu:A propriedade de algo ter na saída o mesmo resultado para o mesmo input é idempotencia e nao determinismo.


O que estás a escrever não é claro, dado que não estás a clarificar o que é "o mesmo input". É necessário utilizar linguagem precisa para não confundir os dois conceitos. Aqui vai novamente, de forma clara, para se perceber o que é o "input" em cada caso.



Idempotencia: f(f(x))=f(x)

Determinismo: f(x)=y (obtém-se sempre o mesmo y, independentemente de quantas vezes aplicas f() a x)


Deterministico: o mesmo input produz (sempre) o mesmo resultado. Dito de outra forma: aplicações independentes da mesma função/modelo ao mesmo input produzem sempre o mesmo resultado.

Idempotencia: aplicar a função novamente (ao resultado anterior) volta a produzir o mesmo resultado que aplica-la uma vez. Dito de outra forma: aplicações sucessivas da função (reaplicar a função ao resultado da primeira chamada) não altera o (ou face ao) resultado da primeira aplicação.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 20:16

BearManBull Escreveu:Portanto uma rede é idempotente se a chamar com o mesmo input fico sempre com o mesmo estado que tinha anteriormente. (ou seja com o mesmo resultado portanto basta chamar uma vez que fico a saber o mesmo).


Não exactamente. Uma rede é idempotente se aplicares o input, obtiveres a saida, voltares a aplicar o output ao input e o output voltar a ser o mesmo que o anterior (igual ao input, igual ao output anterior). O que é diferente de determinismo. Podes confirmar isto em n fontes.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 20:14

MarcoAntonio Escreveu:Com o devido respeito, não posso estar aqui a tarde toda a esclarecer sempre sobre a mesma coisa quando forneces textos e fontes que confirmam o que eu estou a dizer.


Bem determinismo nao é idempotencia.

A propriedade de algo ter na saída o mesmo resultado para o mesmo input é idempotencia e nao determinismo.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 20:10

BearManBull Escreveu:
Estamos a falar contexto IT...

in imperative programming, a subroutine with side effects is idempotent if multiple calls to the subroutine have the same effect on the system state as a single call, in other words if the function from the system state space to itself associated with the subroutine is idempotent in the mathematical sense given in the definition;


Que é exactamente o que eu tenho estado a descrever mas que tu pareces não entender. O que te estão aí a dizer é que f(f(f(x)))=f(x).

Inclusivamente o texto diz "is idempotent in the mathematical sense given in the definition". Tu sugeres que alterar o contexto (para IT) altera o sentido de idempotente quando o próprio texto que citas diz que é idempotente no sentido matemático do termo, dado pela sua definição. O destaque (utilizando a cor vermelha) é meu.


Com o devido respeito, não posso estar aqui a tarde toda a esclarecer sempre sobre a mesma coisa quando forneces textos e fontes que confirmam o que eu estou a dizer.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 20:05

MarcoAntonio Escreveu:
BearManBull Escreveu:Idempotence (UK: /ˌɪdɛmˈpoʊtəns/,[1] US: /ˈaɪdəm-/)[2] is the property of certain operations in mathematics and computer science whereby they can be applied multiple times without changing the result beyond the initial application.


Vê a descrição (expressão) da definição logo abaixo. Com o devido respeito, ou não estás a entender o que estão a dizer - e a confundir a definição de determinismo com idempotencia - ou estás a limitar-te a colocar um link que confirma tudo o que eu escrevi.

No contexto de calculo matricial, traduz-se em A^2=A. Na página do wikipedia que citaste está escrito de outra forma (x.x=x), mas é a mesma coisa. Também está escrito textualmente mais adiante (em relação à parte que citaste):

The term was introduced by American mathematician Benjamin Peirce in 1870[3][4] in the context of elements of algebras that remain invariant when raised to a positive integer power, and literally means "(the quality of having) the same power", from idem + potence (same + power).


Ver também/ainda a aplicação de idempotencia a funções, na mesma página que citaste, mais adiante, onde está escrito também precisamente o que eu escrevi aqui, ie, f(f(x))=f(x).


Estamos a falar contexto IT...

in imperative programming, a subroutine with side effects is idempotent if multiple calls to the subroutine have the same effect on the system state as a single call, in other words if the function from the system state space to itself associated with the subroutine is idempotent in the mathematical sense given in the definition;


Portanto uma rede é idempotente se a chamar com o mesmo input fico sempre com o mesmo estado que tinha anteriormente. (ou seja com o mesmo resultado portanto basta chamar uma vez que fico a saber o mesmo).
Editado pela última vez por BearManBull em 20/7/2025 20:13, num total de 1 vez.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 20:03

Deterministmo

Criar um SW que le sensores e que ao ver RGB (0,0,0) -> output cor preta.

Estocastico

Treinar uma rede a detectar cores ao inferir a cor preta numa imagem -> probabilidade de sair preto 99% Castanho 1% Verde 0,000001%
Editado pela última vez por BearManBull em 20/7/2025 20:10, num total de 2 vezes.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 20:01

BearManBull Escreveu:Idempotence (UK: /ˌɪdɛmˈpoʊtəns/,[1] US: /ˈaɪdəm-/)[2] is the property of certain operations in mathematics and computer science whereby they can be applied multiple times without changing the result beyond the initial application.


Vê a descrição (expressão) da definição logo abaixo. Com o devido respeito, ou não estás a entender o que estão a dizer - e a confundir a definição de determinismo com idempotencia - ou estás a limitar-te a colocar um link que confirma tudo o que eu escrevi.

No contexto de calculo matricial, traduz-se em A^2=A. Na página do wikipedia que citaste está escrito de outra forma (x.x=x), mas é a mesma coisa. Também está escrito textualmente mais adiante (em relação à parte que citaste):

The term was introduced by American mathematician Benjamin Peirce in 1870[3][4] in the context of elements of algebras that remain invariant when raised to a positive integer power, and literally means "(the quality of having) the same power", from idem + potence (same + power).



Ver também/ainda a aplicação de idempotencia a funções, na mesma página que citaste, mais adiante, onde está escrito também precisamente o que eu escrevi aqui, ie, f(f(x))=f(x).
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 19:54

MarcoAntonio Escreveu:
BearManBull Escreveu:O que me referia em termos não determinísticos é que não se sabe o comportamento da rede.


A definição de determinismo, sucintamente, é: para um dado conjunto de inputs, o output produzido é sempre o mesmo.


Idempotence (UK: /ˌɪdɛmˈpoʊtəns/,[1] US: /ˈaɪdəm-/)[2] is the property of certain operations in mathematics and computer science whereby they can be applied multiple times without changing the result beyond the initial application.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por previsor » 20/7/2025 19:16

O ChatGPT dá razão ao Marco :-)

A afirmação do bearmanbull (“A IA não é determinística. Aliás, o que faz a IA ser IA é justamente essa componente”) está errada por dois motivos:

1. Falso tecnicamente

Nem toda a IA é não-determinística.
• Existem muitos sistemas de IA que são 100% determinísticos, especialmente em aplicações críticas como:
• Diagnóstico médico
• Detecção de fraude
• Controlo de qualidade industrial
• Nestes casos, o mesmo input gera sempre o mesmo output, e mesmo assim o sistema é uma IA.

2. Confusão entre características opcionais e essenciais
• A estocasticidade (não determinismo) é uma característica comum nos LLMs e modelos generativos, mas não é essencial à definição de IA.
• A característica essencial da IA é a capacidade de aprender a partir de dados (em vez de seguir regras codificadas à mão).
• Isto aplica-se tanto a modelos determinísticos como a modelos estocásticos.


Porque é que MarcoAntonio está certo

Ele explicou que:
• Os modelos LLM (como o ChatGPT) são estocásticos por design (para gerar respostas variadas).
• Mas a IA em geral pode ser determinística ou estocástica, consoante o tipo de aplicação.
• O que faz uma IA ser IA é a capacidade de aprender com dados e adaptar-se, não o facto de ser aleatória ou não.

Portanto, MarcoAntonio tem razão, e bearmanbull está errado ao afirmar que a não-deterministicidade é o que define a IA.






Como a IA aprende com dados e se adapta?
1. Dados de treino
• Para “aprender”, a IA é inicialmente alimentada com muitos exemplos reais — conjuntos de dados grandes e variados, como textos, imagens, números, etc.
• Por exemplo, um modelo de linguagem (como o ChatGPT) é treinado com milhares de milhões de frases e documentos.
2. Modelo com parâmetros (pesos)
• A IA usa uma estrutura matemática (como uma rede neuronal) com muitos parâmetros (também chamados de pesos).
• Esses parâmetros são inicialmente aleatórios ou pré-configurados.
3. Processo de treino — Ajustar os parâmetros
• O modelo tenta fazer uma previsão ou gerar uma resposta com base numa entrada.
• Compara a previsão com o resultado real (no caso do treino, sabe a “resposta certa”).
• Calcula o erro (diferença entre previsão e resultado esperado).
• Ajusta os parâmetros para reduzir esse erro — isto chama-se otimização.
• Este processo repete-se muitas vezes (milhões de vezes), melhorando o modelo progressivamente.
4. Aprendizagem (generalização)
• O modelo “aprende” padrões, relações e estruturas nos dados, e deixa de depender de regras fixas codificadas manualmente.
• Assim, quando vê dados novos, pode aplicar o que aprendeu para gerar respostas ou decisões — mesmo que nunca tenha visto exatamente esses exemplos.
5. Adaptação
• Em sistemas mais avançados, o modelo pode continuar a ajustar-se com novos dados depois do treino inicial (aprendizagem contínua ou online).
• Ou pode ser re-treinado com dados atualizados para melhorar o desempenho.

Resumo prático
• IA = Modelo matemático + Dados + Ajuste automático dos parâmetros
• O segredo está no processo de ajustar o modelo com base em dados reais, para aprender a “resolver” problemas novos.
• É isso que dá à IA a capacidade de aprender e adaptar-se, diferentemente de um programa que só executa regras fixas.
Avatar do Utilizador
 
Mensagens: 2624
Registado: 15/3/2023 3:21

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 18:55

Não é o que se estava discutir.

O ponto levantado foi o bear ter dito e cito:

bearmanbull Escreveu:A AI nao è deterministica. ALias o que faz a AI ser AI é justamente essa componente.


O que está incorrecto. Entretanto ele reforçou alegando que estava a falar de redes neuronais mas continua a não estar correcto.


Os modelos LLM são tipicamente não determinísticos (estocásticos), por decisão de design (no contexto de aplicação, é entendido como benéfico; mas há aplicações da IA onde é inconveniente e não é utilizado). Os modelos AI podem ser determinísticos ou estocásticos:

Deterministico - para pesos fixos, a mesma entrada devolve sempre o mesmo resultado (os LMM são desenhados para isto não ocorrer).

Estocástico - é introduzida aleatoriedade no modelo, deliberadamente, tipicamente associado a um passo de amostragem, para que o modelo produza resultados diferentes para o mesmo input (mesmo sem alterar os pesos).



Alguns exemplos de aplicação de IA onde modelos determinísticos são preferidos: diagnóstico médico, controlo de qualidade, detecção de anomalias, etc. Já nos modelos generativos, onde se procura uma aparência de naturalidade, criatividade, etc, tende-se a favorecer modelos não determinísticos.



Portanto, voltando ao ponto inicial, o que faz da IA, IA, não é o facto de ser "não determinística" (existem multiplos exemplos de IA determinística) mas sim a capacidade de aprender a partir dos dados/experiência (por oposição a operar com base nas regras atribuidas/ensinadas explicitamente pelo programador).
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por previsor » 20/7/2025 18:37

Talvez isto ajude na vossa discussão
O código-fonte completo do ChatGPT não é público, mas a OpenAI já explicou em várias ocasiões como o modelo prioriza fontes de informação durante o pré-treino e ajuste fino (fine-tuning). Não existe uma linha de código visível que diga literalmente “priorizar esta fonte”, mas existem mecanismos e princípios documentados que orientam a seleção de conteúdos e o comportamento do modelo.

Aqui vai uma simulação de como isso poderia ser representado em pseudocódigo (ou lógica de alto nível), baseado nas explicações técnicas conhecidas:

Pseudocódigo simplificado: Prioridade das fontes de treino
# Durante o treino do modelo

for documento in conjunto_de_dados:
if é_fonte_fidedigna(documento):
prioridade = alta
elif é_wikipedia(documento):
prioridade = média
elif é_fórum_público(documento):
prioridade = baixa
elif é_rede_social(documento):
prioridade = ignorar # redes sociais são geralmente excluídas
else:
prioridade = avaliar_qualidade(documento)

if prioridade >= média:
incluir_no_treino(documento)
Avatar do Utilizador
 
Mensagens: 2624
Registado: 15/3/2023 3:21

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 18:14

Tentando esclarecer e separar as águas....

(1) Aplicar a saída da CNN de novo à entrada e obter na saída o mesmo que na entrada -> idempotencia

(2) Aplicar a mesma entrada, duas vezes sucessivas (ou mais), e o resultado da CNN ser (garantidamente) sempre o mesmo -> determinismo

(3) Aplicar dois conjuntos (distintos) de pixeis, referentes ao mesmo algarismo, na entrada e na saída obter classificações diferentes -> erro de classificação



Nota: no primeiro caso (1), para ser aplicável, é necessário que o argumento/input tenha as mesmas dimensões do output ou a questão não faz sequer sentido, pelo que o exemplo se aplicaria, por exemplo, a uma rede generativa de transferencia de domínio (eg, conversão de estilo) mas não a uma rede de classificação. Exemplos: autoencoder, gan, etc.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 20/7/2025 18:00

BearManBull Escreveu:O que me referia em termos não determinísticos é que não se sabe o comportamento da rede.


A definição de determinismo, sucintamente, é: para um dado conjunto de inputs, o output produzido é sempre o mesmo. Dizer "não se sabe" é ambíguo (pode envolver explicabilidade/interpretabilidade/variabilidade, etc, que são conceitos discutidos no contexto de modelos AI). Ao ofereceres esta descrição, não é claro o que estás a dizer.


BearManBull Escreveu:Por exemplo uma rede convolucional que reconhece números é impossível saber com certeza que quando desenho um 9 vai realmente detectar um 9 ou 4 ou 1. Há uma probabilidade de dectar correctamente o 9 mas pode dizer que é um 4 nalguns casos e muito mais raramente um 1.


Aqui ainda é menos claro. Pareces agora estares a aludir a erros de classificação (a classificação não coincide sempre com o ground truth). O que é distinto de determinismo.


BearManBull Escreveu:Outra coisa é ter o mesmo resultado na saída para exactamente a mesma imagem na entrada (ou seja com exactamente os mesmo pixéis).


Isto, sim, é uma definição sucinta de determinismo.


BearManBull Escreveu:Repara que não falei em idempotencia.

(...)

Outra coisa é ter o mesmo resultado na saída para exactamente a mesma imagem na entrada (ou seja com exactamente os mesmo pixéis). No caso do GPT não é idempotente.


Idempotencia não se aplica bem aqui. Idempotência corresponde A^2=A (em que A representa uma matriz) ou f(f(x))=f(x). A forma como introduziste o tema aqui contribui para confusão também (antes só se discutiu comportamento determinístico vs estocástico). Na prática corresponderia a aplicar a saída na entrada de novo e o sinal de saída continuar o mesmo. Por vezes a função de custo inclui uma componente relacionada, aplica-se por exemplo em modelos GAN a título de exemplo, mas é só parte da função de custo [loss function]; seja como for, não é o mesmo que determinismo e convém distinguir claramente as definições).
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por BearManBull » 20/7/2025 17:49

MarcoAntonio Escreveu:E, claro, depois de treinado, o modelo mantém-se inteiramente determinístico, desde que os pesos permaneçam fixos (o que é a prática normal)..


Repara que não falei em idempotencia.

O que me referia em termos não determinísticos é que não se sabe o comportamento da rede.

Por exemplo uma rede convolucional que reconhece números é impossível saber com certeza que quando desenho um 9 vai realmente detectar um 9 ou 4 ou 1. Há uma probabilidade de dectar correctamente o 9 mas pode dizer que é um 4 nalguns casos e muito mais raramente um 1.

Outra coisa é ter o mesmo resultado na saída para exactamente a mesma imagem na entrada (ou seja com exactamente os mesmo pixéis). No caso do GPT não é idempotente.
“It is not the strongest of the species that survives, nor the most intelligent, but rather the one most adaptable to change.”
― Leon C. Megginson
Avatar do Utilizador
 
Mensagens: 10593
Registado: 15/2/2011 11:59
Localização: 22

Re: A Revolução da Inteligencia Artificial

por MarcoAntonio » 16/7/2025 16:47

Do tamanho de Manhattan. Meta constrói centros de dados "superinteligentes" para IA - Tecnologias - Jornal de Negócios

Mark Zuckerberg quer os titãs da mitologia grega do seu lado. Focado no desenvolvimento de IA, o fundador da Meta anunciou esta semana a criação de um centro de dados do tamanho de Manhattan, que pode chegar aos 5GW. À lista juntam-se outras construções para impulsionar a IA.
Imagem

FLOP - Fundamental Laws Of Profit

1. Mais vale perder um ganho que ganhar uma perda, a menos que se cumpra a Segunda Lei.
2. A expectativa de ganho deve superar a expectativa de perda, onde a expectativa mede a
__.amplitude média do ganho/perda contra a respectiva probabilidade.
3. A Primeira Lei não é mesmo necessária mas com Três Leis isto fica definitivamente mais giro.
Avatar do Utilizador
Administrador Fórum
 
Mensagens: 41204
Registado: 4/11/2002 22:16
Localização: Porto

Re: A Revolução da Inteligencia Artificial

por previsor » 15/7/2025 12:19

Fiz a mesma pergunta no Grok e a resposta é diferente. E também parece mais difícil ver de onde vem a informação no Grok.
No ChatGPT as fontes aparecem na própria resposta

Quando te pedem para procurar notícias, por exemplo sobre a guerra na Ucrânia ou Trump, vais buscar informação às redes sociais?

Sim, quando me pedem para procurar notícias, posso buscar informações em redes sociais, como posts no X, além de outras fontes na web, para obter uma visão atualizada e diversificada. No caso de temas como a guerra na Ucrânia ou Trump, analiso conteúdos relevantes e confiáveis disponíveis em tempo real, incluindo o que é discutido nas redes sociais, mas priorizo fontes com maior credibilidade e contexto. Se quiser que eu foque em algo específico, como apenas notícias de fontes tradicionais ou posts de usuários no X, é só me dizer!
Avatar do Utilizador
 
Mensagens: 2624
Registado: 15/3/2023 3:21

AnteriorPróximo

Quem está ligado:
Utilizadores a ver este Fórum: bpcolaco, danielme1962, Google [Bot], Samukinha e 102 visitantes