Um aspecto menos falado de Bolonha: a garantia de qualidade e a avaliação

João Vasconcelos Costa

O processo de Bolonha é, para muitos, a reforma do sistema de graus e a introdução do sistema de créditos do tipo ECTS. Esquecem-se frequentemente outros aspectos, como “a promoção da cooperação europeia para a garantia da qualidade com vista ao desenvolvimento de critérios e metodologias comparáveis“. A reunião de Praga ainda veio reforçar este ponto, encorajando uma mais estreita cooperação entre as redes europeias de reconhecimento e garantia de qualidade, no sentido de se estabelecer um quadro comum de referência e de se disseminarem as melhores práticas. Este lado do processo de Bolonha é tão importante que se prevê que na próxima reunião interministerial, de Berlim 2003, lançados já e em boa marcha o processo de revisão dos sistemas de graus e o sistema de créditos, um tema principal em foco seja o da garantia de qualidade e a avaliação.

Qualidade é a palavra chave de todas as reformas em curso na Europa. Ao falar nas universidades, pode haver várias asserções para a qualidade. Muitas vezes ela é identificada com excelência e distinção, com prestígio histórico e fama internacional, o que é adequado a universidades de elite ou a universidades que se pretendem distinguir em segmentos concretos de investigação ou de ensino. Pode-se falar de qualidade como a conformidade a padrões de qualidade ou o cumprimento de códigos de boas práticas, o que é uma das formas hoje mais vulgares de se ver e avaliar a qualidade (sem que esses padrões sejam entendidos como um valor uniforme, lesivo da diversidade do sistema). Pode-se entendê-la como o cumprimento efectivo e pleno dos objectivos institucionais, o critério geralmente designado como “fitness for purpose”, o que faz pouco sentido entre nós, em que as universidades praticamente não diferem umas das outras em missões e objectivos. Ou ainda como o cumprimento das expectativas dos usuários (“stakeholders”), um conceito muito usado na indústria e nos serviços mas que, na universidade, pode ser demasiadamente ambíguo porque pode variar consideravelmente conforme o parceiro social da universidade e os seus interesses específicos. Finalmente, dá-se hoje grande importância à qualidade como significando a capacidade de mudança da universidade e da sua transformação em resposta aos desafios, o que, de certa forma, é um conceito abrangente em relação a todos os anteriores.

A garantia da qualidade passa pela avaliação, que é a outra face da moeda da crescente autonomia de que gozam, por toda a Europa, as instituições de ensino superior (IES). Ela é inerente à responsabilidade ou prestação de contas, no sentido do termo inglês tão usado “accountability”. O Estado concede às IES um alto grau de independência, de capacidade própria de se organizarem, de definirem as suas estratégias e executá-las livremente. Tem o direito, mesmo o dever, de se certificar de que os meios assim disponibilizados foram devidamente usados, de avaliar o progresso da actividade das IES. Os contribuintes pagam o seu financiamento, em montante avultado. A sociedade exige-lhes múltiplas funções e tem o direito de esperar que elas sejam cumpridas com qualidade. 

A garantia de qualidade e a avaliação não podiam, portanto, ser deixadas de fora de um processo de tão fundas repercussões como é o de Bolonha.

O objectivo, neste domínio, é o da comparabilidade dos critérios e métodos da avaliação e garantia da qualidade, como forma de facilitar o reconhecimento de diplomas ou de formações temporárias obtidos noutros países, o que implica alguma homogeneidade dos sistemas de avaliação. Para facilitar esse reconhecimento, já há duas directivas comunitárias (89/48/EEC e 92/51/EEC), para além de muitas convenções e acordos bilaterais e foi criada uma rede de centros de informação nacionais para o reconhecimento académico (NARIC), hoje integrada no âmbito de acção do programa Sócrates/Erasmus. Na maioria dos países, os centros NARIC só têm funções de informação e ajuda no processamento do reconhecimento ou equivalência dos diplomas, que continuam a competir, em geral, às próprias universidades. 

A ideia de um sistema europeu de avaliação das universidades não é nova. Depois de, na década de 80, a avaliação já estar em vigor na Holanda (a pioneira), nos países escandinavos, na França, e no Reino Unido e já planeada em outros países, o Conselho de Ministros da Comunidade, em 1991, propôs a generalização das experiências de avaliação do ensino superior, o que conduziu a um projecto piloto para avaliação da qualidade no ensino superior europeu, iniciado em 1994, com a participação dos quinze países comunitários e ainda da Noruega e da Islândia, que colaboraram na troca de informações e experiências e na monitorização dos seus processos de avaliação, embora com discrepâncias de país para país. Também a Confederação das Conferências de Reitores da União Europeia já tinha proposto uma rede europeia de garantia de qualidade nas suas assembleias de 1996 e 1997.

Pouco antes da reunião de Bolonha, a recomendação do Conselho Europeu de 24 de Setembro de 1998 (98/561/EC) sobre a qualidade do ensino superior pretendeu a introdução, à escala europeia, de métodos de garantia da qualidade e a promoção da cooperação europeia neste domínio. Recomenda a todos os estados membros que estabeleçam sistemas de avaliação e de garantia de qualidade baseados em princípios comuns, já postos em prática na maioria dos processos de avaliação: autonomia e independência das estruturas de avaliação e garantia de qualidade, com capacidade de determinação dos seus métodos e procedimentos; critérios de avaliação que tenham em conta, para cada instituição, o cumprimento prático dos seus objectivos e as necessidades da sociedade e do mercado de trabalho; avaliação comportando um processo inicial de auto-avaliação seguido de avaliação por peritos externos; participação de avaliadores estrangeiros; publicação dos relatórios de tal forma que constituam um material de trabalho útil para os parceiros e para o público em geral. Pelo seu grau de generalidade, estes princípios comuns não impedem a variabilidade que ainda existe na Europa quanto aos sistemas de avaliação das universidades.

A declaração de Bolonha reforça esse objectivo de comparabilidade dos critérios e métodos de avaliação, como compensação de uma maior liberalidade quanto à diversidade dos sistemas de organização do ensino. Um mecanismo já posto em prática e que contribuirá para este objectivo é a rede europeia de garantia de qualidade no ensino superior (ENQA – “European Network for Quality Assurance in Higher Education”), a que Portugal pertence (sendo actualmente o delegado português o Prof. S. Machado dos Santos), que foi montada em 1999. 

A ENQA propõe-se promover a cooperação europeia visando um consenso sobre os princípios, objectivos e métodos da avaliação e é considerada tanto pelas conclusões da reunião das instituições académicas de Salamanca (2001) como pela convenção de Praga como a potencial plataforma europeia para a disseminação de boas práticas e aconselhamento das agências nacionais de avaliação e acreditação. É também um forum de discussão de novos aspectos importantes da avaliação, tais como o seguimento (“follow up”) da avaliação, as relações entre avaliação e acreditação (um tema que discuti num artigo anterior, “A regulação da oferta de cursos – o papel do Estado e do mercado“) e a avaliação das novas formas de ensino, como o ensino à distância e a aprendizagem ao longo da vida.

A ENQA, no espírito de salvaguarda da diversidade nacional que deve pautar o processo de Bolonha, não pretende ser uma agência europeia de avaliação e acreditação, mas tem condições para vir a ser uma agência de meta-acreditação. As suas actividades – troca de experiências, treino de avaliadores, encomenda ou produção de documentos e actividades temáticas – bem como a sua colaboração com a EUA (a associação europeia das universidades) e com a ESIB (união das associações de estudantes da Europa) são promissoras de um papel relevante na construção de uma plataforma europeia de garantia de qualidade.

A avaliação em Portugal e na Europa

A avaliação, a que as universidades têm vindo a ser sujeitas e que está a ser alargada aos institutos politécnicos, já entrou na tradição universitária. Contra outras características culturais mais problemáticas, a cultura da avaliação está claramente interiorizada pela universidade. A avaliação das universidades públicas, bem como do politécnico e das instituições privadas, foi estabelecida pela Lei nº 38/94, de 21 de Novembro. A responsabilidade pela avaliação foi entregue às chamadas entidades representativas, reconhecidas pelo ministério. Essa figura mal definida na lei de entidade representativa vinha consagrar a atribuição já decidida da avaliação a uma entidade muito próxima das próprias universidades públicas, a Fundação das Universidades Portuguesas. Posteriormente, o Decreto-lei nº 205/98, de 11 de Julho, regulamentou a lei da avaliação e instituiu os órgãos responsáveis. A avaliação propriamente dita compete a conselhos de avaliação (um para as universidades públicas, outro para as privadas e outros dois para o politécnico, público e privado) criados por essas entidades representativas. São estes conselhos que organizam de facto a avaliação, estabelecem as regras e procedimentos no quadro dos princípios estabelecidos pelo decreto e propõem ao ministério as comissões externas de cada avaliação. Isto quer dizer, portanto, que é cada um dos subsistemas do ensino superior que determina a sua própria avaliação, porque, na prática, se identifica com a respectiva entidade representativa.

O decreto cria ainda o Conselho Nacional de Avaliação do Ensino Superior (CNAVES), que tem por fim “assegurar a harmonia, coesão e credibilidade do processo de avaliação e acompanhamento do ensino superior, tendo em vista a observância dos padrões de excelência a que deve corresponder o funcionamento global do sistema”. Não é, portanto, um órgão operacional no que respeita à avaliação, competindo-lhe, quando muito, a meta-avaliação. Neste aspecto, afastamo-nos da maioria dos países europeus, em que não há desdobramento de funções entre o organismo de avaliação propriamente dita e um organismo de supervisão. Com a nossa excepção e a da Finlândia, é um órgão único, como seria o CNAVES, que é responsável por todas as fases do processo, a começar pela preparação técnica e prática da avaliação e pela designação dos avaliadores e a terminar na monitorização, na meta-avaliação e na emissão de recomendações ao Governo. 

O CNAVES é constituído por um número não especificado de membros nomeados pelo Governo, pelos presidentes dos referidos quatro conselhos de avaliação, por um representante das entidades coordenadoras dos subsistemas de ensino superior e por um estudante de cada um deles. Não há representação dos interesses regionais, profissionais e socio-económicos, os “stakeholders” da universidade. No entanto, a lei permite que o CNAVES constitua comissões de ordens profissionais e de organizações científicas e culturais. Estão constituídas duas comissões permanentes, uma das ordens e associações profissionais e outra das actividades económicas, mas não é claro qual é o seu grau de influência.

Directa ou indirectamente, as IES têm um grande peso na composição dos órgãos de avaliação, seja o CNAVES sejam os conselhos de avaliação. Não parece uma situação saudável, em relação à independência que se exige sempre num processo de avaliação. No entanto, não somos caso único, em relação à situação na Europa. Talvez por influência da experiência pioneira que foi a avaliação na Holanda em 1988, a cargo da associação das universidades, um bom número de países da União Europeia e associados têm a avaliação entregue às próprias universidades e suas associações, por vezes sem qualquer envolvimento de entidades externas, o que nós sempre vamos tendo, mesmo que reduzidamente. Mas também há outros casos em que a avaliação compete a agências independentes tanto do governo como das universidades e com grande participação de representantes sociais. São, por exemplo, os casos dos países escandinavos, da França ou do Reino Unido.

Esta relativa falta de independência da avaliação em relação às IES, no plano formal, poderia ser compensada com grande participação de elementos exteriores à universidade na composição das comissões externas de avaliação, de peritos. É o que acontece, por exemplo, com a avaliação aos centros de investigação patrocinada pela Fundação para a Ciência e Tecnologia, com grande peso de estrangeiros, em muitos casos maioritário. Não é isto que se passa com a avaliação das universidades. A consulta à composição das comissões mostra uma quase total preponderância de universitários. São raros os membros externos, investigadores ou profissionais de mérito, e ainda mais excepcionais os membros estrangeiros. No entanto, é preciso reconhecer que isto não tem afectado, na prática, o rigor da avaliação.

A lei determina que a avaliação deve incidir sobre a qualidade do desempenho científico e pedagógico das instituições de ensino superior, tomando especialmente em consideração os currículos de ensino, os processos pedagógicos, a qualificação dos docentes, a investigação (que só é avaliada separadamente), a ligação à comunidade, as instalações e equipamentos e os projectos de cooperação internacional. Estabelece também que a avaliação deve ter em conta a eficiência da organização e gestão, o que também não creio que esteja a ser cumprido. Tudo isto é relativamente consensual a nível europeu.

Onde há alguma disparidade é nos objectivos da avaliação que, no nosso caso, são estipulados como sendo: “estimular a melhoria da qualidade das actividades desenvolvidas; informar e esclarecer a comunidade educativa e a comunidade portuguesa em geral; assegurar um conhecimento mais rigoroso e um diálogo mais transparente entre as instituições de ensino superior; e contribuir para o ordenamento da rede de instituições de ensino superior”. Destes objectivos, ressalta evidentemente o do estímulo da qualidade, que é comum a todos os sistemas europeus de avaliação. Neste sentido, o critério da avaliação, em toda a parte, incide fortemente no cumprimento dos objectivos institucionais (“fitness for purpose”) ou no cumprimento de padrões de qualidade ou de códigos de boas práticas. Junta-se também, na maioria dos países, o da “accountability” ou responsabilidade, isto é, o de se avaliar a que ponto e com que eficácia as universidades utilizam os seus recursos humanos e financeiros e como justificam perante a sociedade o uso destes recursos. 

Penso que este objectivo, que complementa o da qualidade e lhe está muito associado e que interessa ao público, devia também ser inserido nos objectivos da avaliação em Portugal. Por outro lado, a avaliação entre nós é baseada em critérios subjectivos, porque não existem padrões de qualidade estabelecidos e consensuais, nem sequer códigos de boas práticas. Outro objectivo que devia ser tido como fundamental é o da defesa e informação do consumidor-estudante. Para isto, seriam precisos dois aspectos hoje em falta na avaliação: uma muito larga divulgação de sínteses informativas dos relatórios, curso a curso e estabelecimento a estabelecimento, bem como a introdução de um sistema de classificações de cursos, como se faz para os centros de investigação, mas ideia a que as universidades têm reagido mal.

Os países da União Europeia e associados dividem-se em duas perspectivas opostas da avaliação. Em Portugal e na grande maioria dos casos, na esteira da experiência pioneira holandesa, faz-se a chamada avaliação programática. Isto quer dizer que a avaliação é feita cruzadamente para todas as universidades e pelos mesmos avaliadores tendo como base um programa, na prática um determinado curso. Avaliam-se simultaneamente, por exemplo, todos os cursos de economia facultados por todas as universidades e, neste processo, cada universidade é vista apenas no que se refere a esse curso em particular. Em alguns países (França, Irlanda, Noruega e Inglaterra), esta avaliação horizontal ou programática é cruzada com uma avaliação vertical ou institucional havendo mesmo o caso extremo da Espanha em que só se faz a avaliação institucional. Na avaliação institucional é cada universidade que é vista individualmente, em regra com base nas avaliações de cada departamento, e integradamente em relação a todos os aspectos da sua actividade, ensino, investigação, gestão e ligação à sociedade, bem como em relação à eficiência dos seus mecanismos de garantia de qualidade.

A avaliação programática tem sido defendida por ter vantagens que reconheço. É a que talvez mais directamente interesse ao público, como factor de escolha do curso e instituição, desde que adequadamente publicitada. É comparativa, permite homogenizar critérios para cada curso e definir padrões comuns de avaliação, o que é reforçado na prática por a avaliação de cada curso ficar a cargo de uma única comissão de peritos. Lidando com um âmbito estreito, é mais fácil constituírem-se esses grupos de peritos, numa base monodisciplinar, enquanto que a avaliação institucional ou é feita por numerosos peritos especializados que podem ser de difícil integração ou então corre o risco de ser feita por generalistas. 

No entanto, parece-me que a tendência predominante para a avaliação programática é limitativa. A meu ver, a avaliação institucional é obviamente a que permite ter-se uma ideia real da qualidade global da universidade, do cumprimento dos seus objectivos e da validade e concretização dos seus padrões de qualidade. A avaliação apenas programática, não institucional, ignora aspectos determinantes do bom funcionamento das escolas, como sejam o desenho da sua estrutura, a composição e funcionamento dos seus órgãos, a eficácia da circulação de informação, os mecanismos de formação da opinião colectiva, as normas e procedimentos administrativos e a articulação com os interesses sociais externos. Ignora a existência ou não de políticas de promoção da qualidade e os seus objectivos, os mecanismos de controlo.

A investigação também é deixada de fora da avaliação, mau grado uma ou outra referência genérica e não significativa em alguns dos relatórios. Também o parecer do CNAVES (parecer 2/2000, de 13 de Julho), baseado nos resultados do primeiro ciclo de avaliação, é totalmente omisso em relação à investigação. Provavelmente, este esquecimento da investigação tem a ver com o facto de a investigação científica já ter estado a ser avaliada pelo ex-Ministério da Ciência e Tecnologia, no âmbito dos centros. Por outro lado, também é certo que o afastamento da investigação do quadro da avaliação universitária é uma regra europeia. Só a França, a Irlanda e a Espanha é que inserem a investigação na avaliação. Mas isto é compensado noutros países, como a Holanda e a Inglaterra, por a avaliação científica ser feita em paralelo e muito articulada com a avaliação do ensino, com a vantagem de ambas as avaliações poderem ser feitas por mecanismos específicos e por peritos mais vocacionados para uma ou outra das avaliações. 

A melhor solução parece-me ser a combinação das vantagens de ambas as perspectivas da avaliação, a programática-científica e a institucional. Embora represente um grande esforço tanto para as universidades avaliadas como para o sistema de avaliação, proceder-se a ambos os tipos de avaliação é a solução de maiores resultados. É o que se passa nos países que referi, que seguiram o modelo holandês mas o completaram com avaliações institucionais, e ainda em outros, como a Dinamarca e a Islândia, que têm em projecto um segundo ciclo de avaliação institucional depois da actual avaliação programática. 

O processo de avaliação que seguimos é próximo de um quase paradigma europeu, decalcado da experiência inicial da Holanda. Ela começa por uma auto-avaliação, a que se segue uma visita por uma comissão externa de peritos, que discute com a instituição o relatório de auto-avaliação e examina as condições físicas locais. A comissão externa elabora um relatório para cada curso e instituição, a que estas podem responder. No fim, como a avaliação é feita cruzadamente a todas as universidades que facultam o curso em questão, é elaborado um relatório global, comparativo e integrativo. Só este último relatório é que é divulgado publicamente. Onde há diferenças para alguns países é na composição dos grupos de peritos externos. Entre nós, essa composição é monodisciplinar, enquanto que noutros casos ela inclui, para além de peritos na área programática, também especialistas em política do ensino superior, em gestão, em pedagogia ou em garantia de qualidade. Também se reconhece hoje a necessidade de treino intenso destes avaliadores, o que não se passa em Portugal (para não falar do Reino Unido, que até põe a hipótese da sua profissionalização – com riscos que o espaço não me deixa desenvolver).

A avaliação pós-Bolonha

Muito há ainda a discutir em relação a este componente do processo de Bolonha. Segundo a ENQA, as questões principais a debater e que marcarão a agenda de Berlim-2003 são: a importância de se estabelecer um contexto europeu para o reconhecimento mútuo de sistemas de avaliação; as relações entre avaliação programática e institucional; sim ou não, um sistema comum de avaliação para o sector universitário e o não universitário; critérios, padrões e “benchmarks” à dimensão europeia; a meta-acreditação; o risco de burocratização e aumento de custos; e como fazer da dimensão europeia da garantia de qualidade um factor de protecção do consumidor, seja o estudante seja o empregador.

Portanto, não são ainda totalmente visíveis as tendências de harmonização dos sistemas de avaliação na Europa e o campo de discussão ainda está muito em aberto. Vai-se passar progressivamente da avaliação programática, horizontal, para a avaliação institucional, já praticada em alguns países e projectada por outros? Vai-se incluir a avaliação da investigação, hoje geralmente deixada para um processo paralelo de avaliação? Vão-se generalizar os mecanismos de seguimento, hoje geralmente inexistentes? Conseguir-se-ão definir padrões de qualidade europeus comuns que sejam usados por todos os processos nacionais de avaliação? O debate está a ser intenso mas ainda faltam consensos.

Uma experiência promissora é a do projecto “Tuning education structures in Europe” que, reunindo 76 universidades, procura estabelecer “benchmarks” comuns de boa prática na formação de base em algumas áreas disciplinares (Matemática, Geologia, História, Gestão e Ciências da Educação), com definição de perfis profissionais e “outcomes”. Também no âmbito da ENQA estão em desenvolvimento projectos piloto e modelos de cooperação, como o do reconhecimento mútuo entre as agências nórdicas ou o projecto da “International Association of University Presidents” e da Unesco sobre marcas mundiais de qualidade.

Uma tendência que ganha força é para que a avaliação se funda com a acreditação, isto é, a aprovação dos cursos fornecidos pelas IES. Afinal, para o objectivo de mobilidade e de construção de um espaço europeu de ensino superior, interessa mais uma harmonização das acreditações do que das avaliações, embora a avaliação seja necessária para a acreditação. Não é o nosso caso, em que a aprovação dos cursos está desregulada e não há processos de validação periódica por acreditação, em função da avaliação. De qualquer forma, ainda não é claro o papel que vai desempenhar na Europa a acreditação. Faltam para já os termos de referência, porque a acreditação é a declaração de conformidade com um limiar de qualidade definido por padrões de qualidade, ainda inexistentes ou pelo menos não consensuais.

Outro aspecto crítico da avaliação é o do seu seguimento (“follow up”). Feita a avaliação e emitidas as recomendações, como é que se garante que as IES as vão cumprir? É uma falha generalizada dos sistemas de avaliação europeus que, com algumas excepções como a Dinamarca e a Finlândia, deixam esta matéria à total discrição das universidades. Alguns outros, como parece ser o caso português, estão a estudar mecanismos de maior controlo do cumprimento das recomendações da avaliação ou, pela positiva, de apoio às universidades na efectivação dessas recomendações. É também o que se passa com as avaliações da CRE, que prevêem a possibilidade de seguimento. Isto não impede que as próprias IES o façam, como aconteceu com a reunião de Braga, em 1998, das sete universidades portuguesas entretanto avaliadas pela CRE, a que se seguiu outra reunião em Granada das universidades avaliadas do sul da Europa. Mas também há casos posteriores de avaliações que foram apenas um exercício de que resultou um relatório guardado na gaveta.

Mais distante mas com óbvio interesse é a transformação da avaliação por “inputs” (currículos, docentes, equipamentos e condições físicas, etc.) para uma avaliação por “outcomes”, em que o que conta, em cada curso, é o seu sucesso na formação de competências, na inserção na sociedade e na empregabilidade. Embora já se pense nestes termos, designadamente no Reino Unido, que se propõe fazer este tipo de avaliação, ainda não há instrumentos nem experiência para a desenvolver nos tempos mais próximos.

A questão mais controversa, também para as nossas universidades, é a de a avaliação ter consequências no financiamento. Em Portugal, isto até está expresso nas leis, mas sem consequências práticas. Em princípio, e segundo a lei, a avaliação pode ter consequências de grande alcance. Ela deve ser considerada para efeitos de reforço do financiamento ou para a sua redução quando os resultados forem negativos, para estimular a criação de novos cursos ou, pelo contrário, para suspender o seu registo, para o reforço do apoio às actividades de investigação científica e para a celebração de planos de desenvolvimento ou de contratos-programa. Não vejo como é que uma avaliação sem classificações (“ratings”), ainda limitada à perspectiva programática, sem o componente institucional e deixando de fora a investigação possa ser usada para esses fins. Pode-se, portanto, duvidar desses resultados práticos, que aliás não fazem parte das consequências da avaliação em nenhum país europeu, com excepção da Inglaterra, da Holanda e da França. Mas, mesmo neste último caso, a avaliação só tem consequências financeiras positivas, não penalizadoras. 

Também em Portugal, apesar da lei prever a penalização financeira decorrente da avaliação, as universidades conseguiram que o Governo garantisse que a avaliação não teria consequências no plano financeiro. Pessoalmente, duvido de que, num quadro generalizado de constrições financeiras, os governos não venham cada vez mais a usar todos os meios de controlo financeiro, incluindo a avaliação. Mas parece que a generalidade das universidades europeias lutará fortemente contra esta hipótese.

A avaliação das IES portuguesas vai ser obrigada a ajustar-se aos padrões europeus e às tendências processuais que emergirem. Não parece que isto venha a ser difícil, já que, no essencial, a avaliação em Portugal cumpre as recomendações do Conselho Europeu, excepto no que se refere à participação de estrangeiros e à utilidade instrumental dos relatórios. No entanto, em alguns aspectos, está distante do que talvez se possa prever como tendências para um futuro sistema harmonizado europeu de avaliação: a avaliação programática não é completada com uma avaliação institucional, os conselhos de avaliação não são verdadeiramente independentes das instituições, a participação dos interesses sociais e económicos (“stakeholders”) é reduzida e não parece realista que o CNAVES ou outra agência de avaliação venha a ter funções de acreditação de cursos, que o ministério provavelmente quer reservar para si, segundo o processo de aprovação a priori por registo, independentemente da avaliação.

5.6.2002