A recursão é uma das técnicas mais simples e úteis que existem para usarmos em nossos algoritmos. Consiste em uma função (denominada recursiva) chamar a si mesmo, até que o retorno seja trivial. Resolvi abordá-la aqui porque alguns algoritmos que estudaremos mais para frente usam funções recursivas.
Gostaria de, antes de falar sobre o assunto, contar um pouco da minha história com recursão, porque foi meu início no mundo dos algoritmos.
Junho de 2004, tinha eu 13 anos e fui premiado com medalha de ouro na modalidade iniciação da Olimpíada de Informática. Fui convidado para o curso de introdução a programação na UNICAMP e, extremamente geek como eu era (e ainda sou), falei para os professores que já programava em C e então eles sugeriram que eu fosse para o curso de programação avançada.
No entanto, eu ainda achava muito complicado os algoritmos da modalidade de programação da OBI, por isso pedi pra ficar num “meio-termo”. Eles toparam numa boa e com isso passei a ter aulas com um monitor excelente (aluno da UNICAMP) chamado Ribamar. Esse cara foi extremamente importante para minha iniciação na programação de verdade.
Na primeira tarde que tive aula com ele, ele perguntou se eu sabia o que era recursão. Respondi que não e, a partir daquele dia e depois de ele me ensinar também de grafos e programação dinâmica, além de me apresentar o Slackware, me tornei um amante de algoritmos. A recursão, portanto, mesmo sendo algo simples, é um assunto especial pra mim porque representa a mudança de “nível”.
Então, mãos à obra!
Em matemática, o número fatorial de n é igual a: n×n−1×n−2×…2×1.
Logo, por exemplo, 5! (cinco fatorial) seria igual a: 5×4×3×2×1=120.
Um exemplo bom e simples de recursão é um algoritmo para determinar números fatoriais:
função fatorial (n)
se n=1, então
retorna 1
senão
retorna n×fatorial(n−1)
fim-se
fim-função
Domínio de nossa função: n∈N/n≥1.
Qual o custo desse algoritmo?
Vamos abrir um grande parênteses aqui até a próxima linha horizontal para descobrir qual o custo do nosso algoritmo antes de continuar com a conversa sobre recursão e relembrar/reforçar o post sobre Análise de Algoritmos. Vou colocar o número de vezes que cada instrução é executada, usando o esquema que será o padrão para as próximas vezes que veremos custos:
Número da linha: Número de vezes que é executada..
- n
- n−1
- 1
- n−1
- n−1
T(n)=(n)+(n−1)+(1)+(n−1)+(n−1)=4n−2
Uma função linear, o tipo de algoritmo mais simples que podemos encontrar, com excessão dos que são uma função constante. Mas o parênteses na verdade não serviu só pra isso. Eu queria aproveitar pra escovar uns bits de nosso código. Você percebeu que o primeiro condicional é executado n−1 vezes, mas só entramos nele uma vez? Então vamos inverter nosso condicional.
função fatorial (n)
se n≥2, então
retorna n×fatorial(n−1)
senão
retorna 1
fim-se
fim-função
Novo custo
- n
- n−1
- n−1
- 1
- 1
T(n)=(n)+(n−1)+(n−1)+(1)+(1)=3n
Claro que continua uma função linear, não houve nenhuma grande mudança. Os dois continuam com a mesma ordem de crescimento e tal… 4n+2 comparado com 3n é uma diferença pequena, mas essa solução ficou bem mais elegante. ;) Poxa, diminuímos o custo do algoritmo em 41! Hehehe…
Agora, antes de continuar, só vamos definir a notação assintótica desse nosso novo custo!
A fórmula do Θ é: 0≤c_1g(n)≤f(n)≤c_2g(n)
Substituindo pela nossa função, temos: c_1n≤3n≤c_2n. É trivial, que podemos escolher para as duas constantes c_1=c_2=3 e para n_0=0. Com isso pretendi mostrar-lhes uma conclusão óbvia que no outro artigo não tinha mostrado para não complicar muito: uma função reta (linear) pertence sempre a notação Θ(n) e uma função quadrática pertence sempre a notação Θ(n2) (ora, façam um gráfico das funções e vejam se isso não é óbvio!). Mas vamos aprendendo mais sobre análise de algoritmos com o tempo…
Bom… Continuando com a recursão… Nossa função cria um loop consigo mesma, ao invés de usar um para (for) ou enquanto (while). Ela se repete diminuindo um de n a cada iteração, até que chegue ao valor mínimo 1 aonde a resposta é trivial: 1.
O que é necessário para criarmos uma recursão? Apenas um ponto de parada! Temos que tomar cuidado para não criarmos loops infinitos cuidando sempre com cada entrada que o usuário pode colocar. Nesse caso, eu determinei que o domínio da função é n∈N/n≥1. Se o cara colocasse n=0, minha função iria diminuindo infinitamente… e nunca iria retornar nada!
Para fazer a recursão portanto, precisamos analisar o domínio de nossa função e mais: precisamos conhecer um valor (que vai ser o limite; no caso do fatorial, o valor que sabíamos é que 1!=1).
Acredito que vocês tenham achado tudo simples e que não tenham problema com isso. Funções recursivas vão ser extremamente úteis para nós nos próximos artigos. Vou finalizar mostrando-lhes alguns casos básicos de algoritmos em que podemos usar a recursão:
Números de Fibonacci
função fibonacci (n)
se n≥3, então
retorna fibonacci(n−1)+fibonacci(n−2)
senão
retorna 1
fim-se
fim-função
Domínio de fibonacci(n): n∈N/n≥1
Depois descobriremos como calcular os números de Fibonacci mais rápido, mas por enquanto nosso objetivo é a recursão!
Substituir um loop
Vamos supor que você quer imprimir os números de n a 1 e esqueceu a sintaxe do para… :D
função imprimeate_ (n)
imprima n
se n>1, então
imprime_ate(n-1)
fim-se
fim-função
Domínio de imprime_ate(n): n∈N/n≥1
Todo loop pode ser uma recursão e tem alguns que ficam bem mais fáceis se forem! Nesse caso, é claro que seria mais simples usarmos um para!
Outros exemplos, para concluir
- Ordenação por Intercalação (Merge Sort)
- Busca em Profundidade (Depth-First Search) em Grafos
- Union/Find
- … entre vários outros casos!